TW201633216A - 資訊處理裝置及資訊處理方法、以及程式 - Google Patents

資訊處理裝置及資訊處理方法、以及程式 Download PDF

Info

Publication number
TW201633216A
TW201633216A TW104138952A TW104138952A TW201633216A TW 201633216 A TW201633216 A TW 201633216A TW 104138952 A TW104138952 A TW 104138952A TW 104138952 A TW104138952 A TW 104138952A TW 201633216 A TW201633216 A TW 201633216A
Authority
TW
Taiwan
Prior art keywords
face
mask
unit
image
recorded
Prior art date
Application number
TW104138952A
Other languages
English (en)
Inventor
Rio YAMASAKI
Takaaki Nakagawa
Masafumi KAKISAKA
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of TW201633216A publication Critical patent/TW201633216A/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

本揭露係有關於,可容易施加確實的遮罩處理的資訊處理裝置及資訊處理方法、以及程式。 資訊處理裝置係具備:臉部偵測部,係偵測動態影像中所被映出之人物之臉部;和自動遮罩部,係臉偵測部所做的人物之臉部的偵測為成功時,則施加將該人物之臉部予以遮罩的遮罩處理;和預測遮罩部,係施加將動態影像中被預測會映出人物之臉部的臉部預測領域予以遮罩的遮罩處理;和判斷部,係基於臉偵測部進行人物之臉部的偵測所得的臉部偵測結果,來對動態影像之配訊進行判斷。然後,判斷部係在臉偵測部所做的人物之臉部的偵測為失敗時,判斷為要進行已被預測遮罩部施加遮罩處理的動態影像之配訊,並基於過去一定時間量的臉部偵測結果來求出臉部預測領域。本技術係可適用於例如,即時將動態影像予以配訊的配訊系統。

Description

資訊處理裝置及資訊處理方法、以及程式
本揭露係有關於資訊處理裝置及資訊處理方法、以及程式,尤其是有關於,能夠容易施加確實的遮罩處理的資訊處理裝置及資訊處理方法、以及程式。
近年來,使用Web攝影機或智慧型手機所附屬之相機等,將拍攝自己的動態影像,經由網際網路而上傳至動畫配訊網站,或是進行串流化配訊等等,已經成為可能。
然而,對不特定多數人公開臉部抱持不安的人很多,這樣的人會對拍攝自己或特定人物之動態影像的配訊敬而遠之,或是限定公開範圍而進行配訊等等。又,例如,將以面具等把臉遮住的狀態下所拍攝而成的動態影像予以配訊等等,或是用手動方式將動態影像的臉部部分施加遮罩處理後才進行配訊等等的人,也很常看到。
先前以來,對靜止影像及動態影像的臉部施加遮罩處理之際可提升確實性的技術,係已經被開發出很多。例如,專利文獻1係揭露,不只朝前方的臉,就連朝 橫向的臉部也能辨識而進行遮罩處理的裝置。又,在專利文獻2中係揭露,在上傳至網際網路之際,將背景與臉的部分予以切離,以使未施加遮罩處理的臉部影像不會流入網際網路上的裝置。
〔先前技術文獻〕 〔專利文獻〕
[專利文獻1]日本特開2008-197837號公報
[專利文獻2]日本特開2009-194687號公報
然而,如上述的施加遮罩處理的技術,係在臉部辨識成功時是有效的,但例如,像是將連續拍攝之動態影像逐次發送過來的串流化配訊這類,在動態影像的所有畫格中臉部辨識並不一定會成功的用途下,要確實地施加遮罩處理是有困難的。又,例如,並非串流化配訊,事前對拍攝的動態影像施加遮罩處理的情況下也是,並不保證能對動態影像的所有畫格都正確地施加遮罩處理。因此,必須要以手動作業尋找遮罩未被顯示的畫格而施加遮罩處理才行,需要非常大的勞力,想要容易施加確實的遮罩處理是有困難的。
本揭露係有鑑於此種狀況而研發,目的在於能夠容易施加確實的遮罩處理。
本揭露之一側面的資訊處理裝置,係具備:臉部偵測部,係偵測動態影像中所被映出之人物之臉部;和自動遮罩部,係前記臉偵測部所做的前記人物之臉部的偵測為成功時,則施加將該人物之臉部予以遮罩的遮罩處理;和判斷部,係基於前記臉偵測部進行前記人物之臉部的偵測所得的臉部偵測結果,來對前記動態影像之配訊進行判斷。
本揭露之一側面的資訊處理方法或程式,係含有以下步驟:偵測動態影像中所被映出之人物之臉部;前記人物之臉部的偵測為成功時,則施加將該人物之臉部予以遮罩的遮罩處理;基於進行前記人物之臉部的偵測所得的臉部偵測結果,來對前記動態影像之配訊進行判斷。
於本揭露之一側面中,動態影像中所被映出之人物之臉部會被偵測,人物之臉部的偵測為成功時,則將該人物之臉部予以遮罩的遮罩處理會被施加。然後,基於進行人物之臉部的偵測所得之臉部偵測結果,進行針對動態影像之配訊的判斷。
若依據本揭露之一側面,則可容易施加確實的遮罩處理。
11‧‧‧配訊系統
12‧‧‧網路
13‧‧‧演出者側資訊處理裝置
14‧‧‧配訊伺服器
15-1乃至15-N‧‧‧視聽者側資訊處理裝置
21‧‧‧通訊部
22‧‧‧攝像部
23‧‧‧顯示部
24‧‧‧記憶部
25‧‧‧操作部
26‧‧‧影像處理部
31‧‧‧數位訊號處理部
32‧‧‧臉偵測部
33‧‧‧遮罩判斷部
34‧‧‧自動遮罩部
35‧‧‧預測遮罩部
36‧‧‧初期遮罩部
37‧‧‧全體遮罩部
38‧‧‧顯示影像生成部
101‧‧‧CPU
102‧‧‧ROM
103‧‧‧RAM
104‧‧‧匯流排
105‧‧‧輸出入介面
106‧‧‧輸入部
107‧‧‧輸出部
108‧‧‧記憶部
109‧‧‧通訊部
110‧‧‧驅動機
111‧‧‧可移除式媒體
[圖1]適用了本技術之配訊系統的一實施形態之構成例的區塊圖。
[圖2]演出者側資訊處理裝置之構成例的區塊圖。
[圖3]臉部遮罩處理之效果的說明圖。
[圖4]說明臉部遮罩處理的流程圖。
[圖5]說明對象臉部輸入處理的流程圖。
[圖6]遮罩對象旗標設定之際所被顯示的使用者介面的圖示。
[圖7]初期遮罩位置設定之際所被顯示的使用者介面的圖示。
[圖8]顯示遮罩影像,在進行臉部遮罩處理以前所被顯示的使用者介面的圖示。
[圖9]將演出者之臉部予以遮罩的成功機率降低時的使用者介面的圖示。
[圖10]遮罩對象旗標之設定變更時的使用者介面的圖示。
[圖11]遮罩影像變更時的使用者介面的圖示。
[圖12]適用了本技術之電腦的一實施形態之構成例的區塊圖。
以下針對適用了本技術的具體之實施形態, 參照圖式而詳細說明。
圖1係適用了本技術之配訊系統的一實施形態之構成例的區塊圖。
如圖1所示,配訊系統11,係透過網際網路等之網路12,而連接演出者側資訊處理裝置13、配訊伺服器14、及N台(複數台)之視聽者側資訊處理裝置15-1乃至15-N所構成。
演出者側資訊處理裝置13,係如參照圖2而後述,透過網路12,將拍攝演出者而成的動態影像,逐次發送至配訊伺服器14。
配訊伺服器14,係將從演出者側資訊處理裝置13所發送過來的動態影像,透過網路12而配訊至視聽者側資訊處理裝置15-1乃至15-N。此時,配訊伺服器14係例如,可對已被配訊之動態影像,實施以使得從視聽者側資訊處理裝置15-1乃至15-N所被發送之評論會流過的方式而加以重疊的影像處理,將實施過如此影像處理的動態影像,予以配訊。
視聽者側資訊處理裝置15-1乃至15-N,係將透過網路12而從配訊伺服器14所被配訊過來的動態影像加以顯示,讓視聽者視聽。然後,視聽者側資訊處理裝置15-1乃至15-N,係將各個視聽者對動態影像做回應而輸入的評論等,發送至配訊伺服器14。
在如此所被構成的配訊系統11中,若演出者想要不公開臉部而進行動態影像之配訊,則演出者側資訊 處理裝置13係可進行,以重疊於演出者之臉部被映出之領域的方式來顯示遮罩影像的臉部遮罩處理。然後,藉由施加臉部遮罩處理而使配訊者之臉部被遮罩影像遮蔽的動態影像,係從演出者側資訊處理裝置13透過配訊伺服器14,而被配訊至視聽者側資訊處理裝置15-1乃至15-N。
接著,圖2係為演出者側資訊處理裝置13之構成例的區塊圖。
如圖2所示,演出者側資訊處理裝置13係具備:通訊部21、攝像部22、顯示部23、記憶部24、操作部25、及影像處理部26所構成。
通訊部21,係進行透過圖1之網路12的通訊,例如,將影像處理部26中實施過影像處理的動態影像,發送至配訊伺服器14。
攝像部22係例如,具有攝像元件或光學透鏡等所構成,將以1人或複數人之演出者為被攝體所拍攝而成的動態影像,供給至影像處理部26而使其被進行臉部遮罩處理。又,攝像部22,係將攝影所得的動態影像供給至顯示部23,將未被施加臉部遮罩處理的動態影像,顯示在顯示部23。
顯示部23係由例如液晶顯示器或有機EL(Electro Luminescence)顯示器等所構成,會顯示已被影像處理部26施加過影像處理的動態影像、或已被攝像部22所拍攝的動態影像等。又,顯示部23係有從配訊伺服器14所被配訊之動態影像會透過通訊部21而被供給,可 將配訊伺服器14中實施過影像處理的動態影像,加以顯示。
記憶部24,係具有硬碟機或半導體記憶體等所構成,將影像處理部26進行影像處理之際所必須之資訊(例如後述的臉部偵測處理或特定臉部表等),加以記憶。又,記憶部24,係將演出者對操作部25進行操作而被輸入的資訊(例如後述的遮罩對象旗標等),加以記憶。
操作部25,係由鍵盤或滑鼠、觸控面板等所構成,被演出者所操作。例如,演出者係可操作操作部25,來設定表示演出者之臉部是否為施加遮罩之對象的遮罩對象旗標,或指定被特定成為應該讓演出者的臉部最初被映照於畫面中之位置的初期遮罩位置。
影像處理部26係在已被攝像部22所拍攝的動態影像中,映出有已經被設定作為臉部遮罩處理施加對象(以下適宜簡稱為對象臉部)的臉的時候,進行以重疊於該對象臉部被映出之領域的方式來顯示遮罩影像的臉部遮罩處理(參照圖4)。然後,影像處理部26係將已被施加臉部遮罩處理的動態影像,供給至顯示部23而顯示之,並且透過通訊部21而發送至配訊伺服器14。又,影像處理部26,係在進行臉部遮罩處理之前,進行設定臉部遮罩處理進行對象之對象臉部的對象臉部輸入處理(參照圖5)。
又,影像處理部26,係如圖2所示,具有: 數位訊號處理部31、臉偵測部32、遮罩判斷部33、自動遮罩部34、預測遮罩部35、初期遮罩部36、全體遮罩部37、及顯示影像生成部38所構成。
數位訊號處理部31,係對從攝像部22所供給的動態影像(影像訊號),施加在影像處理部26中進行影像處理時所必須的各種數位訊號處理,例如,將構成動態影像的每1畫格的影像資料,供給至臉偵測部32。
臉偵測部32,係針對從數位訊號處理部31逐次供給的每一影像資料,進行偵測影像中所被映出之臉部的臉部偵測處理。然後,臉偵測部32,係在藉由臉部偵測處理而偵測到臉部時,則將含有該臉部所被映出之領域之位置及大小予以特定的臉部領域資訊、和用來識別特定之臉部所需之臉部識別資訊的臉部偵測結果,供給至遮罩判斷部33及記憶部24。又,臉偵測部32,係在藉由臉部偵測處理而未偵測到臉部時,則輸出表示沒有從處理對象之影像偵測到臉部之意旨的臉部偵測結果。
此處,從臉偵測部32所供給的過去一定時間量的臉偵測結果會被記憶在記憶部24中,這些臉偵測結果係被當成臉部領域預測資料,在下次以後的影像資料中預測臉部領域時,會被利用。又,記憶部24中係記憶有,已被臉偵測部32所偵測到的特定之臉部偵測結果、和表示該臉部是否為遮罩施加對象的遮罩對象旗標,所被建立對應而登錄的特定臉部表。
遮罩判斷部33,係將記憶部24中所記憶的特 定臉部表予以讀取,依照對處理對象之影像是否必須施加遮罩處理的判斷、臉偵測部32中臉部偵測是否成功的判斷,而進行令自動遮罩部34進行遮罩處理的決定、令預測遮罩部35進行遮罩處理的決定、及不進行遮罩處理的決定之任一者。
例如,遮罩判斷部33,係在對處理對象之影像必須要進行遮罩,且於臉偵測部32中臉部偵測係為成功時,則進行令自動遮罩部34進行遮罩處理的決定,向自動遮罩部34供給臉部偵測結果。
又,遮罩判斷部33,係在對處理對象之影像必須要進行遮罩,且於臉偵測部32中臉部偵測係為失敗時,則進行令預測遮罩部35進行遮罩處理的決定。此情況下,遮罩判斷部33,係將記憶部24中所記憶的過去一定時間量的臉部偵測結果,當作臉部領域預測資料而予以讀取,基於這些臉部偵測結果,預測偵測失敗的臉部的位置及大小而求出臉部預測領域,並供給至預測遮罩部35。
又,遮罩判斷部33,係在不需要對處理對象之影像進行遮罩時,則決定不進行遮罩處理。例如,遮罩判斷部33,係若與臉部偵測結果建立對應的遮罩對象旗標是表示並非遮罩施加對象的情況下,則決定不進行遮罩處理。
自動遮罩部34,係依照遮罩判斷部33所做的決定,基於臉偵測部32所做的臉部偵測結果中所含之臉 部領域資訊,而生成要被重疊於處理對象之影像中所被映出之臉部的遮罩影像,供給至顯示影像生成部38。
預測遮罩部35,係依照遮罩判斷部33所做的決定,基於已被遮罩判斷部33所求出的臉部預測領域,而生成要被重疊於被預測為在處理對象之影像中會被映出之臉部的遮罩影像,供給至顯示影像生成部38。
初期遮罩部36係生成,在臉部遮罩處理被進行前所被進行的,將遮罩處理對象之對象臉部予以輸出的對象臉部輸入處理(圖5的流程圖)中要被顯示於初期遮罩位置的遮罩影像,供給至顯示影像生成部38。
全體遮罩部37,係例如,若遮罩判斷部33在臉偵測部32所做的演出者之臉部辨識失敗時,判斷為要替換預測遮罩部35所做的遮罩處理,將從影像處理部26所輸出之影像全體都予以遮罩,則生成將影像全體予以遮罩的遮罩影像,供給至顯示影像生成部38。
顯示影像生成部38係生成,將自動遮罩部34、預測遮罩部35、初期遮罩部36、或全體遮罩部37中所被生成的遮罩影像,重疊至已被攝像部22所拍攝的影像而成的顯示影像,並予以輸出。
演出者側資訊處理裝置13係如以上所述般地被構成,例如,即使臉偵測部32所做的臉部偵測處理失敗時,仍可依照臉部預測領域而顯示遮罩影像。藉此,可較確實地施加遮罩處理。
此處,參照圖3,說明臉部遮罩處理的效果。
在圖3的A中,已被攝像部22所拍攝的動態影像,亦即,於影像處理部26中施加臉部遮罩處理前的動態影像,係每一畫格地(5張畫格a1~畫格a5)被顯示。在如此的動態影像中,只要臉部辨識不失敗,則如圖3的B所示,在所有的畫格b1~畫格b5中,會以重疊於演出者之臉部的方式,顯示遮罩影像。
可是,先前,例如,對畫格a2的臉部辨識失敗,從對畫格a4的臉部辨識起才恢復的情況下,則如圖3的C所示,在畫格c2及C3係不會顯示遮罩影像,演出者的臉部就會被公開。
相對於此,在演出者側資訊處理裝置13中,即使對畫格a2的臉部辨識失敗,從對畫格a4的臉部辨識起才恢復的情況下,預測遮罩部35仍可生成遮罩影像。藉此,在畫格d1、畫格d4、及畫格d5中,由自動遮罩部34所生成的遮罩影像係被顯示,在畫格d2及畫格d3中,由預測遮罩部35所生成的遮罩影像會被顯示。因此,在演出者側資訊處理裝置13中,可較確實地將演出者之臉部予以遮罩。
如此,在臉部辨識失敗這類狀況下,即使先前無法將演出者之臉部予以遮罩,在演出者側資訊處理裝置13中,仍可高機率地將演出者之臉部予以遮罩。藉此,演出者側資訊處理裝置13,係可理想使用於即時性高的服務,例如動畫串流化等。又,相較於以手動作業尋找遮罩未被顯示的畫格而施加遮罩處理的情形,演出者側 資訊處理裝置13,係在上傳動態影像之際為了隱私保護而將臉部予以遮罩的作業,也可較有效率化。
接著,圖4係說明影像處理部26中所進行的臉部遮罩處理的流程圖。
例如,設定成在動態影像配訊進行之際會執行臉部遮罩處理,一旦從攝像部22開始供給動態影像就開始處理,於步驟S11中,遮罩判斷部33係將記憶部24中所記憶的特定臉部表予以讀取。
於步驟S12中,臉偵測部32係將從數位訊號處理部31所供給的影像資料,逐次當作處理對象而進行臉部偵測處理。然後,臉偵測部32係將進行臉部偵測處理所得之臉部偵測結果,供給至遮罩判斷部33,並且,供給至記憶部24而記憶之。
於步驟S13中,遮罩判斷部33,係參照步驟S11中從記憶部24所讀出的特定臉部表,基於步驟S12中從臉偵測部32所供給之臉部偵測結果,而判定對處理對象之影像是否必須要進行遮罩。
例如,遮罩判斷部33,係於特定臉部表中,若與臉部偵測結果中所含之臉部識別資訊建立對應的遮罩對象旗標是表示係為遮罩施加對象的情況下,則判定為必需對處理對象之影像進行遮罩。另一方面,於特定臉部表中,若與臉部偵測結果中所含之臉部識別資訊建立對應的遮罩對象旗標是表示並非遮罩施加對象的情況下,則判定為不需要對處理對象之影像進行遮罩。甚至,遮罩判斷部 33,係即使在臉部偵測結果是表示未從處理對象之影像偵測到臉部之意旨的情況下,若在處理對象之影像的1畫格前的影像中判定為有必要進行遮罩,則判定為必需對處理對象之影像進行遮罩。
於步驟S13中,若遮罩判斷部33係判定為,對處理對象之影像必須要進行遮罩,則處理係前進至步驟S14。
於步驟S14中,遮罩判斷部33,係藉由與處理對象之影像的1畫格前之影像中的臉部偵測結果進行比較,以判定本次的步驟S12中的臉部偵測處理中,是否成功偵測到臉部。
於步驟S14中,若遮罩判斷部33判定為臉部的偵測為成功,則處理係前進至步驟S15。例如,遮罩判斷部33,係若於1畫格前之影像中所被偵測到的臉部,是於本次步驟S12中的臉部偵測處理中也也被偵測到時,則判定本次的步驟S12中的臉部偵測處理中,臉部的偵測係為成功。
於步驟S15中,遮罩判斷部33,係將臉部偵測結果供給至自動遮罩部34,自動遮罩部34,係基於該臉部偵測結果中所含之臉部領域資訊,而進行自動遮罩處理,生成對應於從影像所被偵測到之臉部之位置及大小的遮罩影像。
另一方面,於步驟S14中,若遮罩判斷部33判定為臉部的偵測並不成功(失敗),則處理係前進至步 驟S16。例如,遮罩判斷部33,係在1畫格前之影像的中央領域(例如從影像之邊緣起算往內側所定寬度之領域)中偵測到臉部時,亦即,在1畫格間被認為不可能發生出鏡的位置上偵測到臉部時,則判定本次的步驟S12中的臉部偵測處理中,臉部的偵測並非成功。
於步驟S16中,遮罩判斷部33,係將記憶部24中所記憶的過去一定時間量的臉部偵測結果,當作臉部領域預測資料而進行讀取。
於步驟S17中,遮罩判斷部33,係判定步驟S16中的臉部領域預測資料之讀取是否成功,若判定為臉部領域預測資料之讀取成功,則處理係前進至步驟S18。
於步驟S18中,遮罩判斷部33,係基於讀取成功的臉部領域預測資料,亦即,基於過去一定時間量的臉部偵測結果,來預測偵測失敗的臉部的位置及大小而求出臉部預測領域。例如,遮罩判斷部33,係基於過去一定時間量的臉部之、及臉部的移動速度,將被預測為在1畫格之間有移動過的臉部的位置,預測成為臉部預測領域。
於步驟S19中,遮罩判斷部33,係判定步驟S18中所求出的臉部預測領域是否有被包含在影像內,若判定臉部預測領域是被包含在影像內,則處理係前進至步驟S20。
於步驟S20中,遮罩判斷部33,係將步驟S18中所求出的臉部預測領域,供給至預測遮罩部35。預 測遮罩部35,係基於臉部預測領域,來進行預測遮罩處理,生成對應於已被遮罩判斷部33所預測出來之臉部之位置及大小的遮罩影像後,處理係前進至步驟S21。
此處,於步驟S13中,若遮罩判斷部33係判定為,不必要對處理對象之影像進行遮罩,及在步驟S15中,自動遮罩部34進行了自動遮罩處理後,處理係前進至步驟S21。又,於步驟S17中,若遮罩判斷部33判定為臉部領域預測資料之讀取並不成功(讀取失敗),則推定演出者長時間不在畫面內,不進行遮罩影像生成處理,處理係前進至步驟S21。又,於步驟S19中,若遮罩判斷部33判定臉部預測領域不被包含在影像內,則推測臉部預測領域完全跑到影像外側而出鏡,不進行遮罩影像生成處理,處理係前進至步驟S21。
於步驟S21中,顯示影像生成部38,係在被供給了由自動遮罩部34或預測遮罩部35所生成之遮罩影像時,則生成對攝像部22所拍攝之影像重疊遮罩影像而成的顯示影像並予以輸出。從顯示影像生成部38所輸出的顯示影像,係被顯示在顯示部23,同時透過通訊部21而被發送至配訊伺服器14。
於步驟S22中,判定從攝像部22供給動態影像是否結束,若判定從攝像部22供給動態影像尚未結束,則處理係返回步驟S12,以下個畫格的影像資料為處理對象,以下,重複同樣的處理。另一方面,於步驟S22中,若判定從攝像部22供給動態影像已經結束,則處理 便結束。
如以上,在演出者側資訊處理裝置13中,即使臉偵測部32所做的臉部偵測處理是失敗的情況下,仍可依照臉部預測領域來顯示遮罩影像,可容易施加較確實的遮罩處理。
接著,圖5係說明影像處理部26中所進行的對象臉部輸入處理的流程圖。
於步驟S31中,一旦演出者對操作部25進行對象臉部輸入的操作,則顯示影像生成部38,係生成用來輸入對象臉部所需之對象臉部輸入畫面,顯示在顯示部23。然後,演出者係操作操作部25,其後,輸入是否必須要對攝像部22所拍攝之影像中所映出之臉部進行遮罩,遮罩對象旗標會依照該輸入而被設定。此處,若遮罩對象旗標是被設定成不需要進行遮罩,則不進行以下的處理,只有在遮罩對象旗標是被設定成必需要進行遮罩的情況下,才進行以下的處理。
於步驟S32中,初期遮罩部36,係將臉部遮罩處理進行之際最初顯示遮罩的位置也就是初期遮罩位置,設定成為演出者之臉部被映出前的初期設定。例如,初期遮罩部36,係可對畫面之任意之一部分,隨機決定初期遮罩位置。此外,關於設定初期遮罩位置的其他方法,係參照圖7而後述。
於步驟S33中,初期遮罩部36,係生成遮罩影像而供給至顯示影像生成部38,令其被顯示在步驟S32 中所設定之初期遮罩位置。然後,初期遮罩部36,係對演出者進行引導,以使新的演出者會被初期遮罩位置上所顯示的遮罩影像遮蔽。
於步驟S34中,臉偵測部32係將從數位訊號處理部31所供給的影像資料,逐次當作處理對象而進行臉部偵測處理。
於步驟S35中,臉偵測部32,係在步驟S34的臉部偵測處理中,判定在初期遮罩位置內是否有目前為止都未被偵測到的新的臉部被偵測出來。於步驟S35中,若判定為臉偵測部32沒有偵測到新的臉部,則處理係返回步驟S34,以下個畫格的影像資料為處理對象而重複進行臉部偵測處理,若判定為有偵測到新的臉部,則處理係前進至步驟S36。
於步驟S36中,初期遮罩部36,係可成功辨識臉部,因此指示顯示影像生成部38使其生成即使演出者移動仍可將臉部予以遮罩之意旨的訊息,顯示影像生成部38,係生成該意旨之訊息而顯示在顯示部23。
於步驟S37中,臉偵測部32係將步驟S34所偵測到的臉部之臉部偵測結果,與對該臉部所設定的遮罩對象旗標建立對應,登錄在被記憶於記憶部24中的特定臉部表中。其後,對象臉部輸入處理係結束,開始臉部遮罩處理(圖4)。
如以上,在演出者側資訊處理裝置13中,在動態影像配訊開始前,可輸入對象臉部,對不希望公開臉 部的演出者,可確實執行臉部遮罩處理。
接著,參照圖6乃至圖11,說明在演出者側資訊處理裝置13中對象臉部輸入處理及臉部遮罩處理被執行時,顯示部23上所被顯示之使用者介面之例子。
圖6係上述圖5的步驟S31中遮罩對象旗標設定之際所被顯示的使用者介面的說明圖。
例如,在顯示部23中係顯示,將被攝像部22所拍攝之影像或被影像處理部26實施過影像處理的影像等予以即時顯示的即時檢視影像51、及演出者進行操作輸入時所被利用的使用者介面畫面52。
如圖6的A所示,即時檢視畫面51中映出演出者之前,如圖6的B所示,在使用者介面畫面52中係顯示,用來讓演出者決定參加動態影像之配訊所需之參加鈕61。
一旦演出者利用操作部25而對參加鈕61進行操作,決定要參加動態影像之配訊,則如圖6的C所示的使用者介面畫面52會被顯示。在此使用者介面畫面52中係顯示有:用來輸入需要對演出者之臉部進行遮罩所需的需要遮罩鈕62、和用來輸入不需要對演出者之臉部進行遮罩所需的不要遮罩鈕62。然後,一旦演出者利用操作部25而對需要遮罩鈕62進行操作,則於上述的圖5的步驟S31中,其後,遮罩對象旗標會被設定成為,必須要對攝像部22所拍攝之影像中所映出之臉部進行遮罩。
圖7係上述圖5的步驟S32中初期遮罩位置 設定之際所被顯示的使用者介面的說明圖。
如圖7的A所示,演出者係藉由令攝像部22拍攝特定的影像辨識可能之標記(在圖7的A的例子中係為×記號),該標記的位置就被設定來作為初期遮罩位置。然後,初期遮罩部36,係在初期遮罩位置所被設定的即時檢視畫面51上,顯示初期遮罩指定標記64。
又,如圖7的B所示,演出者係藉由令攝像部22拍攝特定的姿勢(在圖7的B的例子中係為,用手在臉部前面擺出×記號的姿勢),此時的演出者之臉部的位置就被設定來作為初期遮罩位置。然後,初期遮罩部36,係在初期遮罩位置所被設定的即時檢視畫面51上,顯示初期遮罩指定標記64。
又,亦可如圖7的C所示,初期遮罩部36係在任意位置(在圖7的C的例子中係為,使用者介面畫面52上所被顯示的即時檢視影像65的左上之位置),自動設定初期遮罩位置,顯示初期遮罩指定標記64。此外,已被初期遮罩部36所設定的初期遮罩位置,係可如圖7的D所示,藉由演出者對初期遮罩指定標記64進行操作(在圖7的D的例子中係為,利用觸控面板的操作),就可使其移動。此外,對初期遮罩指定標記64的操作,係可藉由滑鼠的游標來進行,也可藉由攝像部22拍攝手指的手勢來進行。
圖8係在初期遮罩位置顯示遮罩影像,在進行臉部遮罩處理以前所被顯示的使用者介面的說明圖。
如圖8的A所示,初期遮罩部36,係在被初期遮罩指定標記64所指定的初期遮罩位置,顯示遮罩影像66(圖5的步驟S33)。此時,例如,顯示出影像或是輸出聲音等等,以將演出者引導至臉部被遮罩影像66所遮蔽的位置。
然後,如圖8的B所示,一旦演出者從即時檢視影像51的外側,在臉部會被遮罩影像66遮蔽的位置上被攝像部22拍攝而映入,則演出者之臉部係被臉部辨識(圖5的步驟S34)。藉此,如圖8的C所示,在使用者介面畫面52的訊息顯示部68中,係顯示出「臉部辨識成功。您可以動了。」此一訊息(圖5的步驟S36)。其後,參照圖4而上述的臉部遮罩處理會被進行,依照演出者之臉部的移動,遮罩影像66會移動,如圖8的D所示,以遮住演出者之臉部的狀態,來配送動態影像。
此外,被顯示在初期遮罩位置的遮罩影像66(初期遮罩),係例如,可在演出者增加的時序上,顯示在即時檢視畫面51中。又,亦可有別於即時檢視畫面51,另外利用測試用畫面來施加初期遮罩。例如,將即時檢視畫面51設成非顯示(黑畫面或配訊停止狀態),於測試用畫面中顯示初期遮罩,同時顯示臉偵測部32所做的臉部辨識的成功程度。然後,亦可隨著演出者之臉部的移動而使遮罩影像66成功移動的狀態後,顯示即時檢視畫面51(黑畫面解除或配訊開始)。
參照圖9,說明將演出者之臉部予以遮罩的成 功機率降低時的使用者介面。
如圖9的A所示,當演出者有二人時,在即時檢視畫面51中係會依照各個演出者之臉部的位置而顯示遮罩影像66-1及66-2。此時,臉偵測部32,係將各個演出者,藉由臉部識別資訊ID1及ID2而加以識別。圖9的B中,臉偵測部32之內部處理所用的即時檢視畫面51係被顯示,被臉部識別資訊ID1所識別的演出者之臉部辨識框67-1、及被臉部識別資訊ID2所識別的演出者之臉部辨識框67-2,係被顯示。
然後,例如,假設在臉偵測部32所做的臉部偵測處理中,被臉部識別資訊ID2所識別的演出者之臉部辨識率係降低,遮罩影像66-2正確顯示的機率係降低。此時,如圖9的C所示,在使用者介面畫面52的訊息顯示部68中,係顯示出「ID2的遮罩成功率降低。現在:××%」此一訊息,並且顯示用來指示停止配訊的配訊停止鈕69。此時,一旦演出者利用操作部25而對配訊停止鈕69進行操作,則動態影像之配訊會被停止,可避免演出者之臉部被公開。
參照圖10,說明遮罩對象旗標之設定變更時的使用者介面。
如圖10的A所示,當演出者有二人時,在即時檢視畫面51中係會依照各個演出者之臉部的位置而顯示遮罩影像66-1及66-2。此時,假設進行操作,將被設定成被臉部識別資訊ID2所識別的演出者是需要遮罩的遮 罩對象旗標,變更成不需要遮罩的遮罩對象旗標。此時,如圖10的B所示,在使用者介面畫面52的操作內容顯示部70中,係顯示出「ID2的遮罩設定」此一操作內容,並且顯示出,在需要進行遮罩時所被操作的需要遮罩鈕71、在不需要進行遮罩時所被操作的不要遮罩鈕72、及在決定操作內容時所被操作的決定鈕73。
然後,一旦演出者對不要遮罩鈕72進行操作,決定其操作內容,則如圖10的C所示,於即時檢視畫面51中,可將遮罩影像66-2設成非顯示。
參照圖11,說明遮罩影像變更時的使用者介面。
如圖11的A所示,當演出者有二人時,在即時檢視畫面51中係會依照各個演出者之臉部的位置而顯示遮罩影像66-1及66-2。此時,假設由被臉部識別資訊ID1所識別的演出者,來進行遮罩影像的變更操作。如此,如圖11的B所示,在使用者介面畫面52的訊息顯示部74中,係顯示出「將變更ID1的遮罩。請選擇想要戴上的遮罩。」此一訊息。再者,此使用者介面畫面52中係還顯示有:表示可讓演出者選擇的遮罩影像的小圖示75乃至77、用來強調顯示已被選擇之遮罩影像所需的選擇框87、及在決定選擇內容時所被操作的決定鈕79。
在圖11的B的例子中,在演出者選擇了小圖示77之遮罩影像的狀態下顯示出選擇框87,一旦決定該選擇內容,則如圖11的C所示,在即時檢視影像51中係 顯示出,對應於小圖示77的遮罩影像66-1’。
此外,例如,遮罩判斷部33,係可隨著演出者而自動變更遮罩影像66,可隨著被臉偵測部32所辨識出來的演出者,將該演出者所預先登錄的遮罩影像66予以顯示。又,遮罩判斷部33,係可辨識演出者之表情(情感),配合表情而變更遮罩影像66。
利用如以上的使用者介面,演出者側資訊處理裝置13係可進行對象臉部輸入處理及臉部遮罩處理。
此外,例如,影像處理部26將演出者之臉部予以遮罩的方法,係不限定於如上述的生成遮罩影像66的方法,只要進行讓視聽者看了仍無法辨識這是誰的臉的影像處理即可。例如,亦可對演出者之臉部施加馬賽克處理,或是顯示出臉部以外的任意影像,或是整個塗黑等等,或是施加遮眼線等之特效,或是把所謂頭像的角色性臉部影像加以重疊等等皆可。
又,例如,遮罩判斷部33,係在應遮罩的臉部之偵測失敗,找不到應遮罩之領域時,亦可判斷為,將預測遮罩部35所做的遮罩處理的一部分或全部予以替換,藉由全體遮罩部37而將影像全體進行遮罩。藉此,相較於僅把預測為應遮罩之領域以預測遮罩部35予以遮罩,藉由全體遮罩部37而將全體進行遮罩的情況下,可更加提高臉部隱蔽的確實性。此外,預測遮罩部35所做的遮罩處理與全體遮罩部37所做的遮罩處理亦可並行而進行。
同樣地,遮罩判斷部33,係在應遮罩的臉部之偵測失敗,找不到應遮罩之領域時,亦可對顯示影像生成部38使其停止顯示影像生成,亦即,使得有可能無法將演出者之臉部予以遮罩的畫格不要被顯示。然後,此情況下,遮罩判斷部33,係可判斷為停止動態影像之配訊本身,或判斷為只停止臉部之偵測失敗的畫格之配訊,而對通訊部21進行控制。
此外,將動態影像全體予以遮罩時,或停止動態影像配訊本身等情況下,其後,在一定時間內沒有發生所定之處發時,可切換成預測遮罩部35所做的遮罩處理。藉此,可防止僅依靠預測遮罩部35所做的遮罩處理而導致臉部隱蔽的確實性降低,同時可降低因沒有新的畫格之配訊所導致的心理壓力。此處,所謂觸發,係為已經沒有必要把動態影像之全體變成不可觀看的指標,例如,之後的畫格中有成功偵測目的臉部、或將顯示「在現在的環境下有可能無法良好遮臉但仍繼續配訊嗎?」此一意旨之質問的確認畫面顯示在顯示部23,讓演出者操作操作部25而對該質問獲得同意之輸入等。
甚至,遮罩判斷部33,係在應遮罩的臉部之偵測失敗,找不到應遮罩之領域時,亦可判斷為將臉部偵測成功的前一畫格持續輸出。又,此情況下,遮罩判斷部33係亦可判斷為,將顯示所定之評論(例如請稍等一下)等的替代影像予以輸出。如此,遮罩判斷部33,係除了施加遮罩處理以外,在臉部辨識失敗的時序上,圍了 使得演出者之臉部不被公開,而進行將動態影像之配訊予以切換的各種判斷。又,演出者側資訊處理裝置13,係亦可延遲所定之延遲時間而進行配訊,亦即所謂的延遲配訊,藉由該延遲時間,例如,可使從臉部辨識失敗的時序起到動態影像之配訊切換為止的處理,可以確實進行。
又,亦可為,例如,事前登錄的所定數之臉部的辨識為成功而顯示遮罩影像時,亦即,複數演出者的成員都到齊時,遮罩判斷部33係判斷為才開始動態影像之配訊。亦即,若複數演出者的成員沒有到齊,就不進行動態影像之配訊。又,例如,遮罩判斷部33,係亦可基於與事前登錄的臉部之數量的一致度來切換遮罩處理,具體而言,若與臉部之數量的一致度較多則可讓初期遮罩部36進行遮罩處理。
此外,本技術係可是用於例如,被連接在個人電腦等的Web攝影機、穿戴在演出者身體上的可穿戴裝置、定點攝影機或監視攝影機等各式各樣的攝像裝置、為了進行電視播送而被使用的播送機器等。又,本技術係可例如,在各種之攝像裝置所內藏的攝像元件之晶片中,內建作為一機能。
此外,參照上述流程圖所說明的各處理,係並不一定是要按照流程圖所記載的順序而沿著時間序列進行處理,而是包含可平行地或個別地執行之處理(例如平行處理或是物件所致之處理)。又,程式係可被1個CPU所處理,也可被複數CPU分散處理。
又,上述一連串處理(資訊處理方法),係可藉由硬體來執行,也可藉由軟體來執行。在將一連串之處理以軟體來執行的時候,構成該軟體的程式,是從記錄有程式的程式記錄媒體來安裝至內嵌有專用硬體的電腦,或是,藉由安裝各種程式,而可執行各種機能的例如泛用之個人電腦等。
圖12係以程式來執行上述一連串處理的電腦的硬體之構成例的區塊圖。
於電腦中,CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103,係藉由匯流排104而被彼此連接。
在匯流排104上係還連接有輸出入介面105。輸出入介面105上係連接有:由鍵盤、滑鼠、麥克風等所成之輸入部106、由顯示器、揚聲器等所成之輸出部107、由硬碟或非揮發性記憶體等所成之記憶部108、由網路介面等所成之通訊部109、將磁碟、光碟、光磁碟、或者半導體記憶體等之可移除式媒體111加以驅動的驅動機110。
在如以上構成的電腦中,藉由CPU101而例如將記憶部108中所記憶之程式透過輸出入介面105及匯流排104,而載入至RAM103裡並加以執行,就可進行上述一連串處理。
電腦(CPU101)所執行之程式係例如,記錄在磁碟(包含軟碟片)、光碟(CD-ROM(Compact Disc- Read Only Memory)、DVD(Digital Versatile Disc)等)、光磁碟、或甚至由半導體記憶體等所成之封裝媒體的可移除式媒體111中,或者,透過區域網路、網際網路、數位衛星播送這類有線或無線的傳輸媒體,而被提供。
然後,程式係藉由將可移除式媒體111裝著至驅動機110,就可透過輸出入介面105,安裝至記憶部108。又,程式係可透過有線或無線之傳輸媒體,以通訊部109接收之,安裝至記憶部108。除此以外,程式係可事前安裝在ROM102或記憶部108中。
此外,本技術係亦可採取如以下之構成。
(1)
一種資訊處理裝置,係具備:臉部偵測部,係偵測動態影像中所被映出之人物之臉部;和自動遮罩部,係前記臉偵測部所做的前記人物之臉部的偵測為成功時,則施加將該人物之臉部予以遮罩的遮罩處理;和判斷部,係基於前記臉偵測部進行前記人物之臉部的偵測所得的臉部偵測結果,來對前記動態影像之配訊進行判斷。
(2)
如上記(1)所記載之資訊處理裝置,其中,還具備:預測遮罩部,係施加將前記動態影像中被預 測會映出前記人物之臉部的臉部預測領域予以遮罩的遮罩處理;前記判斷部,係在前記臉偵測部所做的前記人物之臉部的偵測為失敗時,判斷為要進行已被前記預測遮罩部施加遮罩處理的前記動態影像之配訊,並基於過去一定時間量的前記臉部偵測結果來求出前記臉部預測領域。
(3)
如上記(1)或(2)所記載之資訊處理裝置,其中,前記判斷部,係若所求出的前記臉部預測領域,是被包含在前記動態影像內中時,則指示由前記預測遮罩部進行遮罩處理。
(4)
如上記(1)至(3)之任一項所記載之資訊處理裝置,其中,還具備:全體遮罩部,係施加將前記動態影像之全體予以遮罩的遮罩處理;前記判斷部,係在前記臉偵測部所做的前記人物之臉部的偵測為失敗時,判斷為要進行已被前記全體遮罩部施加遮罩處理的前記動態影像之配訊。
(5)
如上記(1)至(4)之任一項所記載之資訊處理裝置,其中,還具備:設定部,係對特定之臉部,設定表示是否為進行遮罩處理之對象的遮罩對象旗標; 前記判斷部,係對前記遮罩對象旗標中被設定為要進行遮罩處理之對象的臉部,指示要由前記自動遮罩部或前記預測遮罩部來進行遮罩處理。
(6)
如上記(1)至(5)之任一項所記載之資訊處理裝置,其中,初期遮罩部,係在前記動態影像中新偵測到演出的人物之臉部之際,施加將前記動態影像的所定位置予以遮罩的初期遮罩,來作為該人物之臉部被映出前的初期設定。
(7)
如上記(6)所記載之資訊處理裝置,其中,前記初期遮罩部,係對前記人物進行引導,以使新演出的前記人物之臉部會被前記初期遮罩所遮蔽。
(8)
如上記(6)或(7)所記載之資訊處理裝置,其中,還具備:設定部,係在前記動態影像中新偵測到演出的前記人物之臉部之前,對該人物之臉部,設定表示是否為進行遮罩處理之對象的遮罩對象旗標。
(9)
如上記(6)至(8)之任一項所記載之資訊處理裝置,其中,記憶部,係將在已被施加前記初期遮罩的所定位置上偵測到前記人物之臉部的臉部偵測結果、與已被前記設定部所設定之前記遮罩對象旗標,建立對應而記憶。
(10)
如上記(1)至(9)之任一項所記載之資訊處理裝置,其中,前記判斷部,係在對被當成遮罩處理進行對象的前記人物之臉部的臉部辨識率降低時,將臉部辨識率已降低之意旨予以通知,隨應於指示停止前記動態影像之配訊的操作被進行,而判斷將停止前記動態影像之配訊予以停止。
(11)
如上記(1)至(10)之任一項所記載之資訊處理裝置,其中,前記判斷部,係在前記臉偵測部所做的前記人物之臉部的偵測為失敗時,進行:將前記動態影像的配訊本身予以停止的判斷、對前記動態影像切換成代替之影像之配訊的判斷、將前記臉部之偵測失敗的前一畫格予以持續配訊的判斷、及僅停止前記臉部之偵測失敗的畫格之配訊的判斷之任一者。
(12)
一種資訊處理方法,係含有以下步驟:偵測動態影像中所被映出之人物之臉部;前記人物之臉部的偵測為成功時,則施加將該人物之臉部予以遮罩的遮罩處理;基於進行前記人物之臉部的偵測所得的臉部偵測結果,來對前記動態影像之配訊進行判斷。
(13)
一種程式,係令電腦執行包含以下步驟之資訊處理:偵測動態影像中所被映出之人物之臉部;前記人物之臉部的偵測為成功時,則施加將該人物之臉部予以遮罩的遮罩處理;基於進行前記人物之臉部的偵測所得的臉部偵測結果,來對前記動態影像之配訊進行判斷。
此外,本實施形態係不限定於上述實施形態,在不脫離本揭露主旨的範圍內可做各種變更。
13‧‧‧演出者側資訊處理裝置
21‧‧‧通訊部
22‧‧‧攝像部
23‧‧‧顯示部
24‧‧‧記憶部
25‧‧‧操作部
26‧‧‧影像處理部
31‧‧‧數位訊號處理部
32‧‧‧臉偵測部
33‧‧‧遮罩判斷部
34‧‧‧自動遮罩部
35‧‧‧預測遮罩部
36‧‧‧初期遮罩部
37‧‧‧全體遮罩部
38‧‧‧顯示影像生成部

Claims (13)

  1. 一種資訊處理裝置,係具備:臉部偵測部,係偵測動態影像中所被映出之人物之臉部;和自動遮罩部,係前記臉偵測部所做的前記人物之臉部的偵測為成功時,則施加將該人物之臉部予以遮罩的遮罩處理;和判斷部,係基於前記臉偵測部進行前記人物之臉部的偵測所得的臉部偵測結果,來對前記動態影像之配訊進行判斷。
  2. 如請求項1所記載之資訊處理裝置,其中,還具備:預測遮罩部,係施加將前記動態影像中被預測會映出前記人物之臉部的臉部預測領域予以遮罩的遮罩處理;前記判斷部,係在前記臉偵測部所做的前記人物之臉部的偵測為失敗時,判斷為要進行已被前記預測遮罩部施加遮罩處理的前記動態影像之配訊,並基於過去一定時間量的前記臉部偵測結果來求出前記臉部預測領域。
  3. 如請求項2所記載之資訊處理裝置,其中,前記判斷部,係若所求出的前記臉部預測領域,是被包含在前記動態影像內中時,則指示由前記預測遮罩部進行遮罩處理。
  4. 如請求項1所記載之資訊處理裝置,其中,還具備:全體遮罩部,係施加將前記動態影像之全體 予以遮罩的遮罩處理;前記判斷部,係在前記臉偵測部所做的前記人物之臉部的偵測為失敗時,判斷為要進行已被前記全體遮罩部施加遮罩處理的前記動態影像之配訊。
  5. 如請求項1所記載之資訊處理裝置,其中,還具備:設定部,係對特定之臉部,設定表示是否為進行遮罩處理之對象的遮罩對象旗標;前記判斷部,係對前記遮罩對象旗標中被設定為要進行遮罩處理之對象的臉部,指示要由前記自動遮罩部或前記預測遮罩部來進行遮罩處理。
  6. 如請求項1所記載之資訊處理裝置,其中,還具備:初期遮罩部,係在前記動態影像中新偵測到演出的人物之臉部之際,施加將前記動態影像的所定位置予以遮罩的初期遮罩,來作為該人物之臉部被映出前的初期設定。
  7. 如請求項6所記載之資訊處理裝置,其中,前記初期遮罩部,係對前記人物進行引導,以使新演出的前記人物之臉部會被前記初期遮罩所遮蔽。
  8. 如請求項6所記載之資訊處理裝置,其中,還具備:設定部,係在前記動態影像中新偵測到演出的前記人物之臉部之前,對該人物之臉部,設定表示是否為進行遮罩處理之對象的遮罩對象旗標。
  9. 如請求項6所記載之資訊處理裝置,其中,還具備: 記憶部,係將在已被施加前記初期遮罩的所定位置上偵測到前記人物之臉部的臉部偵測結果、與已被前記設定部所設定之前記遮罩對象旗標,建立對應而記憶。
  10. 如請求項1所記載之資訊處理裝置,其中,前記判斷部,係在對被當成遮罩處理進行對象的前記人物之臉部的臉部辨識率降低時,將臉部辨識率已降低之意旨予以通知,隨應於指示停止前記動態影像之配訊的操作被進行,而判斷將停止前記動態影像之配訊予以停止。
  11. 如請求項1所記載之資訊處理裝置,其中,前記判斷部,係在前記臉偵測部所做的前記人物之臉部的偵測為失敗時,進行:將前記動態影像的配訊本身予以停止的判斷、對前記動態影像切換成代替之影像之配訊的判斷、將前記臉部之偵測失敗的前一畫格予以持續配訊的判斷、及僅停止前記臉部之偵測失敗的畫格之配訊的判斷之任一者。
  12. 一種資訊處理方法,係含有以下步驟:偵測動態影像中所被映出之人物之臉部;前記人物之臉部的偵測為成功時,則施加將該人物之臉部予以遮罩的遮罩處理;基於進行前記人物之臉部的偵測所得的臉部偵測結果,來對前記動態影像之配訊進行判斷。
  13. 一種程式,係令電腦執行包含以下步驟之資訊處理:偵測動態影像中所被映出之人物之臉部; 前記人物之臉部的偵測為成功時,則施加將該人物之臉部予以遮罩的遮罩處理;基於進行前記人物之臉部的偵測所得的臉部偵測結果,來對前記動態影像之配訊進行判斷。
TW104138952A 2014-12-04 2015-11-24 資訊處理裝置及資訊處理方法、以及程式 TW201633216A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014245855 2014-12-04

Publications (1)

Publication Number Publication Date
TW201633216A true TW201633216A (zh) 2016-09-16

Family

ID=56091533

Family Applications (1)

Application Number Title Priority Date Filing Date
TW104138952A TW201633216A (zh) 2014-12-04 2015-11-24 資訊處理裝置及資訊處理方法、以及程式

Country Status (2)

Country Link
TW (1) TW201633216A (zh)
WO (1) WO2016088583A1 (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7211373B2 (ja) 2018-01-04 2023-01-24 株式会社ソシオネクスト 動画像解析装置、動画像解析システム、動画像解析方法、及びプログラム
JP7546881B2 (ja) 2020-04-21 2024-09-09 株式会社野本 動画撮影支援システム、動画撮影支援システムの制御方法及びプログラム
CN111639545B (zh) * 2020-05-08 2023-08-08 浙江大华技术股份有限公司 一种人脸识别方法、装置、设备及介质
CN116977485A (zh) * 2023-01-16 2023-10-31 腾讯科技(深圳)有限公司 一种图像处理方法、装置、设备、介质及程序产品

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0646414A (ja) * 1992-07-23 1994-02-18 Matsushita Electric Ind Co Ltd テレビ電話
JP4671133B2 (ja) * 2007-02-09 2011-04-13 富士フイルム株式会社 画像処理装置

Also Published As

Publication number Publication date
WO2016088583A1 (ja) 2016-06-09

Similar Documents

Publication Publication Date Title
CN109416931B (zh) 用于视线跟踪的装置和方法
US9883144B2 (en) System and method for replacing user media streams with animated avatars in live videoconferences
US8411130B2 (en) Apparatus and method of video conference to distinguish speaker from participants
US20170337747A1 (en) Systems and methods for using an avatar to market a product
US10771716B2 (en) Control device, monitoring system, and monitoring camera control method
JP5212187B2 (ja) 通信端末装置、表示制御方法、表示制御プログラム
US9538130B1 (en) Dynamic gaze correction for video conferencing
TW201633216A (zh) 資訊處理裝置及資訊處理方法、以及程式
WO2015142580A1 (en) Sharing physical whiteboard content in electronic conference
CN109154862B (zh) 用于处理虚拟现实内容的装置、方法和计算机可读介质
KR101900471B1 (ko) 반응 효과가 삽입된 방송 시스템
JP2012216953A (ja) 情報処理装置、表示制御方法及び表示制御装置
CN104980722B (zh) 一种数据处理方法、装置以及电子设备
JP5489197B2 (ja) 電子広告装置・方法及びプログラム
JP2024124434A (ja) 画像処理装置、画像処理方法及び画像処理システム
US11294474B1 (en) Controlling video data content using computer vision
US20160173705A1 (en) Transmitting high-resolution images
US20230186654A1 (en) Systems and methods for detection and display of whiteboard text and/or an active speaker
US10311292B2 (en) Multiple-media performance mechanism
US12033490B2 (en) Information processing device, information processing method, and program
EP3306463A1 (en) Method and device for processing multimedia
CA3194856A1 (en) System and methods for enhanced videoconferencing
CN114554133B (zh) 一种信息处理方法、装置和电子设备
US20230141019A1 (en) Attention Tracking of a Crowd
WO2023209837A1 (ja) 制御装置、制御システム、制御方法、及び制御プログラム