JP2020087399A - 顔面領域を処理する装置および方法 - Google Patents
顔面領域を処理する装置および方法 Download PDFInfo
- Publication number
- JP2020087399A JP2020087399A JP2019003767A JP2019003767A JP2020087399A JP 2020087399 A JP2020087399 A JP 2020087399A JP 2019003767 A JP2019003767 A JP 2019003767A JP 2019003767 A JP2019003767 A JP 2019003767A JP 2020087399 A JP2020087399 A JP 2020087399A
- Authority
- JP
- Japan
- Prior art keywords
- facial
- feature point
- face
- area
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000001815 facial effect Effects 0.000 title claims abstract description 252
- 238000000034 method Methods 0.000 title claims abstract description 76
- 238000012545 processing Methods 0.000 title claims abstract description 63
- 230000004913 activation Effects 0.000 claims description 14
- 230000005540 biological transmission Effects 0.000 claims 1
- 230000008569 process Effects 0.000 abstract description 37
- 238000004891 communication Methods 0.000 description 52
- 230000006870 function Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 238000010606 normalization Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 230000008921 facial expression Effects 0.000 description 5
- 238000010295 mobile communication Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioethics (AREA)
- Human Computer Interaction (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
【課題】無線端末を通じての写真撮影や映像撮影時に手軽に肖像権保護が必要な顔に対して隠蔽処理をして予期せぬ肖像権の問題を未然に防止する装置及び方法を提供する。【解決手段】肖像権保護のためのアプリケーションが備えられた無線端末は、タッチスクリーンと一つ以上のカメラ部を具備する顔面領域を処理する装置であって、映像情報または写真情報を獲得するカメラ部、カメラ部から映像情報または写真情報の伝達を受けて顔面領域を認識し、顔面領域を有効顔面領域および隠蔽顔面領域に区分するアプリケーションを含む制御部および有効顔面領域および隠蔽顔面領域を保存するメモリ部を含む。【選択図】図1
Description
本発明は顔面領域を処理する装置および方法に関するものであって、無線端末のカメラ部を通じて撮影される映像情報または写真情報を判読して、前記映像情報または写真情報に含まれた一つ以上の顔面領域を認識し、表示対象と設定された顔面領域を判別するために登録された顔面特徴点の組み合わせに基づいて前記認識された一つ以上の顔面領域を有効顔面領域として決定するかまたは隠蔽顔面領域として処理するものである。
移動通信技術の発達により携帯電話の普及が急速化され、携帯電話に内蔵されたカメラ技術が発展しSNSが大衆化されるにつれて多くの人々が写真や映像を撮影することが多くなったことにより、撮影した写真や映像を知り合いまたは大衆とSNS等を通して共有している。
しかし、写真や映像を共有することにより、意図していないのに写真や映像に撮影されている他人が露出されて被害を被る場合がたびたび発生している。
このような被害を防ぐためには、フォトショップ(登録商標)などの写真や映像の編集が可能な別途のプログラムを通じて、写真や映像に意図していないのに撮影されてしまった他人を隠したりモザイク処理をしなければならない煩わしさがあった。
前記のような問題点を解消するための本発明の目的は、無線端末のカメラ部を通じて撮影される映像情報または写真情報を判読して、前記映像情報または写真情報に含まれた一つ以上の顔面領域を認識し、表示対象と設定された顔面領域を判別するために登録された顔面特徴点の組み合わせに基づいて前記認識された一つ以上の顔面領域を有効顔面領域として決定するかまたは隠蔽顔面領域として処理する装置および方法を提供することにある。
このために本発明は、映像情報または写真情報を獲得するカメラ部、カメラ部から映像情報または写真情報の伝達を受けて顔面領域を認識し、顔面領域を有効顔面領域および隠蔽顔面領域に区分するアプリケーションを含む制御部および有効顔面領域および隠蔽顔面領域を保存するメモリ部を含む装置を提供する。
また、本発明に係るアプリケーションは、映像情報または写真情報を判読してN個の顔面領域を認識することによってN個の顔面領域に対応するN個の顔面特徴点関係を認識する特徴点認識部をさらに含む。
また、本発明に係るアプリケーションは映像情報または写真情報を判読して認識されたN個の顔面領域を隠蔽顔面領域として決定する。
また、本発明の特徴点関係は正面方向の顔面特徴点関係、左側方向の顔面特徴点関係、右側方向の顔面特徴点関係、上側方向の顔面特徴点関係、下側方向の顔面特徴点関係、左上側方向の顔面特徴点関係、左下側方向の顔面特徴点関係、右上側方向の顔面特徴点関係および右下側方向の顔面特徴点関係を含むことを特徴とする、。
また、制御部はあらかじめ設定されたM個の顔面特徴点の組み合わせおよびあらかじめ設定された許容誤差範囲をさらに含み、前記顔面特徴点の組み合わせは正面方向の顔面特徴点関係、左側方向の顔面特徴点関係、右側方向の顔面特徴点関係、上側方向の顔面特徴点関係、下側方向の顔面特徴点関係、左上側方向の顔面特徴点関係、左下側方向の顔面特徴点関係、右上側方向の顔面特徴点関係および右下側方向の顔面特徴点関係のうち少なくとも一つまたは二つ以上の和集合からなる。
また、アプリケーションは特徴点判別部をさらに含み、特徴点判別部はN個の顔面特徴点の組み合わせのうちあらかじめ設定された許容誤差範囲内でマッチングされるn個の顔面特徴点関係を判別する。
また、本発明はn個の顔面特徴点関係に対応するn個の顔面領域を有効顔面領域として決定する顔面領域処理部をさらに含み、顔面領域処理部はN個の顔面領域のうち(N−n)個の顔面特徴点関係に対応する(N−n)個の顔面領域を隠蔽顔面領域として決定する。
また、アプリケーションはタッチスクリーン上に出力された映像情報または写真情報をN個の顔面領域別にタッチ可能であるように活性化するタッチ入力活性化部をさらに含み、タッチ入力活性化部は有効顔面領域および隠蔽顔面領域をタッチスクリーン上に出力し、タッチスクリーン上に出力された有効顔面領域または隠蔽顔面領域のタッチ入力を確認し、タッチ入力された前記有効顔面領域または隠蔽顔面領域を前記隠蔽顔面領域または有効顔面領域にそれぞれ切り替えて出力する。
また、本発明に係るアプリケーションは、映像情報または写真情報に含まれた最近接顔面領域の大きさおよび映像情報または写真情報の全体の領域の大きさの間の比率を判読するセルフカメラ判別部をさらに含み、セルフカメラ判別部はカメラ部を通じての映像情報または写真情報の撮影の有無を判別する。
また、前記アプリケーションは有効顔面領域に対応する顔面特徴点関係を正規化する特徴点正規化部をおよび正規化された顔面特徴点関係をあらかじめ設定された顔面特徴点の組み合わせに含ませる学習処理部をさらに含む。
また、本発明はタッチスクリーンと一つ以上のカメラ部を具備した無線端末を利用して顔面領域を処理する方法であって、指定されたカメラ部を通じて獲得される映像情報や写真情報を判読してN(N≧1)個の顔面領域に対応するN個の顔面領域別N個の顔面特徴点関係を認識する第1段階、表示対象と設定された顔面領域を判別するために登録された顔面特徴点の組み合わせを保存管理する指定された保存媒体と連動して、前記映像情報や写真情報から認識されたN個の顔面特徴点関係のうち前記登録された特定の顔面特徴点の組み合わせの少なくとも一部と既設定された許容誤差範囲内でマッチングされるn(0≦n≦N)個の顔面特徴点関係を判別する第2段階および映像情報や写真情報に含まれたN個の顔面領域のうちマッチングされたn個の顔面特徴点関係に対応するn個の顔面領域を有効顔面領域として決定するか非マッチングされた(N−n)個の顔面特徴点関係に対応する(N−n)個の顔面領域を隠蔽顔面領域として処理する第3段階を含む顔面領域を処理する方法を提供する。
本発明に係る顔面領域を処理する装置および方法を提供することによって、無線端末を通じての写真撮影や映像撮影時に手軽に肖像権保護が必要な顔に対して隠蔽処理をして予期せぬ肖像権の問題を未然に防止できる利点がある。
以下、添付された図面と説明を参照して本発明の好ましい実施に対する動作原理を詳細に説明する。ただし、下記に図示される図面と後述される説明は本発明の特徴を効果的に説明するための多様な方法のうち好ましい実施方法に関するものであり、本発明は下記の図面と説明だけで限定されるものではない。
すなわち、下記の実施例は本発明の多様な実施例のうち好ましい和集合形態の実施例の例に該当し、下記の実施例で特定の構成(または段階)を省略する実施例、または特定の構成(または段階)に具現された機能を特定の構成(または段階)に分割する実施例、または二つ以上の構成(または段階)に具現された機能をいずれか一つの構成(または段階)に統合する実施例、特定の構成(または段階)の動作順序を取り替える実施例などは、下記の実施例で別途に言及せずともすべて本発明の権利範囲に属することを明白に明しておく。したがって、下記の実施例を基準として部分集合または差集合に該当する多様な実施例が本発明の出願日を遡及して分割され得ることを明示しておく。
また、下記で本発明の説明において、関連した公知の機能または構成に対する具体的な説明が本発明の要旨を不要に曖昧にさせる恐れがあると判断される場合には、その詳細な説明を省略する。そして、後述される用語は本発明での機能を考慮して定義された用語であって、これは使用者、運用者の意図または慣例などにより変わり得る。したがって、その定義は本発明で全般にわたった内容に基づいて下されるべきである。
結果として、本発明の技術的思想は、特許請求の範囲によって決定され、以下の実施例は進歩的な本発明の技術的思想を本発明が属する技術分野で通常の知識を有する者に効率的に説明するための一手段に過ぎないものである。
図1は本発明に係る肖像権保護のためのアプリケーションが備えられた無線端末の機能構成を図示した図面である。
より詳細には、図1は無線端末100のカメラ部140を通じて撮影される映像情報または写真情報を判読して、前記判読された映像情報または写真情報に含まれた一つ以上の顔面領域を認識し、表示対象と設定された顔面領域を判別するために登録された顔面特徴点の組み合わせに基づいて前記認識された一つ以上の顔面領域を有効顔面領域として決定するかまたは隠蔽顔面領域として処理するために、前記無線端末100に設置されて実行されるアプリケーション150の機能構成および前記無線端末100の概略的な構成を図示したものであって、本発明が属した技術分野で通常の知識を有する者であれば、図1を参照および/または変形して前記アプリケーション150が設置されて本発明が具現される無線端末100の機能に対する多様な実施方法を類推できるであろうが、本発明は前記類推されるすべての実施方法を含んで構成され、図1に図示された実施方法のみにその技術的特徴が限定されるものではない。好ましくは、図1の無線端末100は無線通信が可能な各種スマートフォン、各種タブレットPC、各種PDAおよび各種携帯電話のうち少なくとも一つを含むことができる。
図1を参照すると、前記無線端末100は、制御部105とメモリ部145と画面出力部110と使用者入力部115とサウンド処理部120とカメラ部140と近距離無線部125と近距離網通信部130と無線網通信部135を具備し、電源供給のためのバッテリーを具備して構成され得る。
前記制御部105は前記無線端末100の動作を制御する構成の総称であって、少なくとも一つのプロセッサと実行メモリを含んで構成され得、前記無線端末100に備えられた各構成部とバス(BUS)を介して連結され得る。本発明によると、前記制御部105は前記プロセッサを通じて前記無線端末100に備えられる少なくとも一つのプログラムコードを前記実行メモリにローディングして演算し、その結果を前記バスを介して少なくとも一つの構成部に伝達して前記無線端末100の動作を制御することができる。
以下、便宜上プログラムコード形態で具現される前記アプリケーション150の機能的構成を本制御部105内に図示して説明する。
前記メモリ部145は前記無線端末100の保存資源に対応する不揮発性メモリの総称であって、前記制御部105を通じて実行される少なくとも一つのプログラムコードと、前記プログラムコードが利用する少なくとも一つのデータセットを保存して維持することができる。
前記メモリ部145は、基本的に前記無線端末100の運営体制に対応するシステムプログラムコードとシステムデータセット、前記無線端末100の無線通信連結を処理する通信プログラムコードと通信データセットおよび少なくとも一つのアプリケーションコードと応用データセットを保存し、本発明のプログラムに対応するプログラムコードとデータセットも前記メモリ部145に保存され得る。
本発明に係る肖像権保護のためにM(M≧1)個の顔面を判別するためのM個の顔面別M個の顔面特徴点の組み合わせは、前記メモリ部145に保存され得る。
また、本発明に係る肖像権保護のために指定された運営サーバー197からダウンロードされる一つ以上の顔面特徴点の組み合わせは、前記メモリ部145に保存され得る。
また、本発明によりカメラ部140を通じて撮影される映像情報または写真情報を判読して、前記判読された映像情報または写真情報に含まれた一つ以上の顔面領域を認識し、表示対象と設定された顔面領域を判別するために登録された顔面特徴点の組み合わせに基づいて前記認識された一つ以上の顔面領域を有効顔面領域として決定するかまたは隠蔽顔面領域として処理する過程で生成されるか、受信/入力されるか、処理される一つ以上の情報またはデータは、前記メモリ部145に保存され得る。
前記画面出力部110は、画面出力器(例えば、LCD(Liquid Crystal Display)等)とこれを駆動する駆動モジュールで構成され得、前記制御部105と連動して前記制御部105の各種演算結果のうち画面出力に対応する演算結果を前記画面出力装置に出力することができる。
前記使用者入力部115は、一つ以上の使用者入力器(例えば、ボタン、キーパッド、タッチパッド、画面出力部104と連動するタッチスクリーンなど)とこれを駆動する駆動モジュールで構成され得、前記制御部105と連動して前記制御部105の各種演算を命令する命令を入力したり、または前記制御部105の演算に必要なデータを入力することができる。
前記サウンド処理部120は、スピーカーとマイクロホンとおよびこれを駆動する駆動モジュールで構成され得、前記制御部105の各種演算結果のうちサウンド出力に対応するサウンドデータをデコーディング(Decoding)して前記スピーカーを通じて出力したり、または前記マイクロホンを通じて入力されるサウンド信号をエンコーディング(Encoding)して前記制御部105に伝達することができる。
前記カメラ部140は、カメラレンズとイメージセンサおよびこれを駆動するカメラモジュールを含んで構成され、自動焦点機能や手振れ補正機能のためのアクチュエータ(Actuator)および/または各種フィルター(例えば、IRフィルタなど)等をさらに含んで構成される。好ましくは、前記カメラ部140は、視線方向の被写体のうち指定された画角内の被写体に対する光学信号をカメラレンズを通じて入力を受けて、イメージセンサを通じてデジタル化して映像情報または写真情報を生成して制御部105に提供し、前記アクチュエータを通じて自動焦点機能や手振れ補正機能を提供し、少なくとも一つのフィルターを通じて前記映像情報または写真情報の品質を補正することができる。一方、実施方法により前記カメラ部140は、品質向上のための少なくとも一つの機能構成部をさらに具備したりおよび/または品質向上や被写体とカメラレンズの間の距離認識のためのデュアルカメラ機能を具備することができるが、これによって本発明が限定されるものではない。
前記近距離無線部125は、無線端末100に備えられる構成部のうち一定距離以内の近距離で指定された無線信号規格に沿って送出(または放送)された無線信号を受信したりまたは近距離と指定された無線信号を送出する構成部の総称である。
前記無線網通信部135と近距離網通信部130は、前記無線端末100を指定された通信網に接続させる通信資源の総称である。好ましくは、前記無線端末100は無線網通信部135を基本通信資源として具備することができ、一つ以上の近距離網通信部130を具備することができる。
前記無線網通信部135は前記無線端末100を基地局を経由する無線通信網に接続させる通信資源の総称であって、特定周波数帯域の無線周波数信号を送受信するアンテナ、RFモジュール、基底帯域モジュール、信号処理モジュールを少なくとも一つ含んで構成され得、前記制御部105と連結されて前記制御部105の各種演算結果のうち無線通信に対応する演算結果を無線通信網を通じて伝送したりまたは無線通信網を通じてデータを受信して前記制御部105に伝達するとともに、前記無線通信の接続、登録、通信、ハンドオフの手続きを実行することができる。本発明によると、前記無線網通信部135は前記無線端末100を交換機を経由する通話チャネルとデータチャンネルを含む通話網に連結することができ、場合により前記交換機を経由せずパケット通信基盤の無線網データ通信(例えば、インターネット)を提供するデータ網に連結することができる。
前記無線網通信部135は、CDMA/WCDMA(登録商標)/LTE規格に沿って移動通信網に接続、位置登録、呼処理、通話連結、データ通信、ハンドオフを少なくとも一つ遂行する移動通信構成を含むことができる。
一方、当業者の意図により前記無線網通信部135は、IEEE 802.16関連規格に沿って携帯インターネットに接続、位置登録、データ通信、ハンドオフを少なくとも一つ遂行する携帯インターネット通信構成をさらに含むことができ、前記無線網通信部135が提供する無線通信構成によって本発明が限定されないことを明白にしておく。すなわち、前記無線網通信部135は無線区間の周波数帯域や通信網の種類またはプロトコルにかかわらずセル基盤の基地局を通じて無線通信網に接続する構成部の総称である。
前記近距離網通信部130は一定距離以内(例えば、10m)で無線周波数信号を通信媒体として利用して通信セッションを連結し、これに基づいて前記無線端末100を通信網に接続させる通信資源の総称であって、好ましくは、Wi−Fi通信、ブルートゥース(登録商標)通信、公衆無線通信、UWBのうち少なくとも一つを通じて前記無線端末100を通信網に接続させることができる。
前記近距離網通信部130は前記無線網通信部135と統合または分離した形態で具現され得、前記近距離網通信部130は無線APを通じて前記無線端末100をパケット通信基盤の近距離無線データ通信を提供するデータ網に連結することができる。
前記無線端末100の制御部105は、前記通信資源が接続可能なデータ網を通じて指定されたアプリケーション提供サーバー(例えば、アップル社のアップストアなど)から本発明に係る肖像権保護のためのアプリケーション150をダウンロードして設置する過程を遂行することができる。一方、前記無線端末100にダウンロードされて設置されたアプリケーション150は、設置後最初実行(または情報登録前実行)時に前記無線端末100とアプリケーション150の組み合わせ(または前記アプリケーション150を設置した無線端末100、または前記無線端末100に設置されたアプリケーション150)を固有な媒体として識別する媒体識別情報(例えば、デバイストークン、UUIDなど)を生成したり、指定されたサーバーを通じて割り当てられる手続きを遂行することができ、前記無線端末100とアプリケーション150の組み合わせを固有な媒体として固有識別する媒体識別情報を指定された運営サーバー197に登録する手続きを遂行することができる。一方、前記無線端末100のアプリケーション150は前記無線端末100を固有識別する無線端末情報(例えば、電話番号、IMSI、IMEIなど)を指定された運営サーバー197に登録する手続きを遂行することができ、この場合、前記運営サーバー197は前記媒体識別情報と前記無線端末情報を連係して保存して管理することができる。
一方、前記無線端末100のアプリケーション150は前記アプリケーション150を設置した無線端末100の使用者を固有識別する使用者情報(例えば、固有ID、姓名、生年月日など)を登録する手続きを遂行することができ、この場合前記運営サーバー197は前記媒体識別情報と前記使用者情報を連係して保存して管理することができる。
図1を参照すると、前記無線端末100のアプリケーション150は、本発明により無線端末100のカメラ部140を通じて撮影される映像情報または写真情報を判読して、前記映像情報または写真情報に含まれた一つ以上の顔面領域を認識し、表示対象と設定された顔面領域を判別するために登録された顔面特徴点の組み合わせに基づいて前記認識された一つ以上の顔面領域を有効顔面領域として決定するかまたは隠蔽顔面領域として処理する機能を提供するプログラムであって、このために前記アプリケーション150は特徴点認識部155と、特徴点判別部160と、顔面領域処理部165を具備して構成され得る。
より具体的に、前記特徴点認識部155は指定されたカメラ部140を通じて獲得される映像情報や写真情報を判読して、N(N≧1)個の顔面領域に対応するN個の顔面領域別N個の顔面特徴点関係を認識することができる。
ここで、前記映像情報は前記カメラ部140を通じて入力されて指定されたバッファー領域にバッファリングされる映像情報(例えば、ファイルで保存されずにカメラを通じてリアルタイムで入力されてバッファリングされる映像情報)を含むことができる。
また、前記映像情報は前記カメラ部140を通じて撮影されて指定された保存領域(例えば、原本ファイルを保存する原本保存領域または一時ファイルを保存する一時保存領域)にファイル形態で保存された映像情報を含むことができる。
前記写真情報は前記カメラ部140を通じて撮影されて指定された保存領域(例えば、原本ファイルを保存する原本保存領域または一時ファイルを保存する一時保存領域)にファイル形態で保存された写真情報を含むことができる。
本発明によると、前記特徴点認識部155は前記指定されたカメラ部140を通じて獲得される映像情報や写真情報を前記タッチスクリーン上の指定された領域に出力することができる。
本発明によると、前記特徴点認識部155を通じて認識される顔面特徴点関係は、正面方向の顔面特徴点関係、左側方向の顔面特徴点関係、右側方向の顔面特徴点関係、上側方向の顔面特徴点関係、下側方向の顔面特徴点関係、左上側方向の顔面特徴点関係、左下側方向の顔面特徴点関係、右上側方向の顔面特徴点関係、右下側方向の顔面特徴点関係、左側顔面特徴点関係、右側顔面特徴点関係のうち少なくとも一つの特徴点関係を含むことができる。例えば、前記左側顔面や右側顔面はほぼ90°の横顔を示し、前記左側方向の顔面は正面方向の顔面と左側顔面の間の角度範囲に該当する顔面を示すことができる。前記のような顔面特徴点関係は図2〜図5で後述する顔面特徴点関係と同様に適用され得る。
本発明の一実施方法によると、前記特徴点認識部155は前記認識されたN個の顔面領域を隠蔽顔面領域として処理することができる。
本発明の一実施方法によると、前記特徴点認識部155は少なくとも一つの有効顔面領域が決定された場合、前記有効顔面領域に対応する顔面特徴点関係の少なくとも一部の特徴点関係が指定された許容範囲内で変化した表情変化特徴点関係を認識することができる。
前記特徴点判別部160は、前記特徴点認識部155を通じて前記N個の顔面領域に対応するN個の顔面領域別N個の顔面特徴点関係が認識されると、表示対象と設定された顔面領域を判別するために登録された顔面特徴点の組み合わせを保存管理する指定された保存媒体と連動して、前記映像情報や写真情報から認識されたN個の顔面特徴点関係のうち前記登録された特定の顔面特徴点の組み合わせの少なくとも一部と既設定された許容誤差範囲内でマッチングされるn(0≦n≦N)個の顔面特徴点関係を判別することができる。
ここで、前記顔面特徴点の組み合わせは、正面方向の顔面特徴点関係、左側方向の顔面特徴点関係、右側方向の顔面特徴点関係、上側方向の顔面特徴点関係、下側方向の顔面特徴点関係、左上側方向の顔面特徴点関係、左下側方向の顔面特徴点関係、右上側方向の顔面特徴点関係、右下側方向の顔面特徴点関係、左側顔面特徴点関係、右側顔面特徴点関係のうち少なくとも一つまたは二つ以上の和集合を含むことができる。前記のような顔面特徴点の組み合わせは図2〜図5で後述する顔面特徴点の組み合わせと同様に適用され得る。
一方、前記保存媒体はM(M≧1)個の顔面を判別するためのM個の顔面別M個の顔面特徴点の組み合わせを保存することができるが、前記保存媒体は前記無線端末100のメモリ部145でもよく、運営サーバー197上のDBでもよい。
本発明の実施方法によると、前記特徴点判別部160は、M個の顔面特徴点の組み合わせのうちいずれか一つの特定の顔面特徴点の組み合わせの少なくとも一部と既設定された許容誤差範囲内でマッチングされるn個の顔面特徴点関係を判別することができる。例えば、各顔面特徴点の組み合わせは各方向別特徴点関係を含むので、そのうち一部と許容誤差範囲内でマッチングされ得る。
前記顔面領域処理部165は、前記特徴点判別部160を通じて前記映像情報や写真情報から認識されたN個の顔面特徴点関係のうち前記登録された特定の顔面特徴点の組み合わせの少なくとも一部と既設定された許容誤差範囲内でマッチングされるn個の顔面特徴点関係が判別されると、前記映像情報や写真情報に含まれたN個の顔面領域のうち、前記マッチングされたn個の顔面特徴点関係に対応するn個の顔面領域を有効顔面領域として決定するか非マッチングされた(N−n)個の顔面特徴点関係に対応する(N−n)個の顔面領域を隠蔽顔面領域として処理することができる。
本発明の実施方法によると、前記顔面領域処理部165は前記映像情報や写真情報に含まれたN個の顔面領域のうち、前記登録された顔面特徴点の組み合わせと既設定された許容誤差範囲内でマッチングされたn個の顔面特徴点関係に対応するn個の顔面領域を有効顔面領域として表示することができる。例えば、n=Nである場合、n個の顔面領域をすべて有効顔面領域として表示することができる。
たとえ、nが「n<N」であっても、特徴点認識部155を通じて前記認識されたN個の顔面領域がすべて自動隠蔽処理された場合、前記顔面領域処理部165はマッチングされたものと確認された一部のn個の顔面領域を表示することができる。
本発明の実施方法によると、前記顔面領域処理部165は前記映像情報や写真情報に含まれたN個の顔面領域のうち、前記登録された顔面特徴点の組み合わせと既設定された許容誤差範囲内でマッチングされていない(N−n)個の顔面特徴点関係に対応する(N−n)個の顔面領域を隠蔽顔面領域として処理することができる。例えば、n=0である場合、すなわちN=(N−n)であるから、N個の顔面領域をすべて隠蔽処理することができる。
本発明の実施方法によると、前記顔面領域処理部165は前記映像情報や写真情報に含まれたN個の顔面領域のうち、前記マッチングされた一部のn個の顔面特徴点関係に対応するn個の顔面領域を有効顔面領域として表示し、非マッチングされた残りの(N−n)個の顔面特徴点関係に対応する(N−n)個の顔面領域を隠蔽顔面領域として処理することができる。例えば、n=1≦n<Nである場合、一部は表示し残りは隠蔽することができる。
本発明の実施方法によると、前記顔面領域処理部165は有効顔面領域や隠蔽顔面領域を含む映像情報や写真情報を前記タッチスクリーン上の指定された領域に出力することができる。
前記有効顔面領域や隠蔽顔面領域を含む映像情報や写真情報を前記タッチスクリーンに出力する場合、前記顔面領域処理部165は前記タッチスクリーンに出力される映像情報や写真情報に含まれたN個の顔面領域別タッチ入力を活性化処理することができる。ここで、前記タッチ入力活性化は、自動で活性化するか、メニュー選択や操作によって手動で活性化することが可能である。
一方、本発明の実施方法によると、前記顔面領域処理部165は前記N個の顔面領域別タッチ入力が活性化した映像情報や写真情報を前記タッチスクリーンに出力する場合、前記映像情報や写真情報に含まれたN個の顔面領域のうち前記タッチスクリーンを通じてのいずれか一つの特定顔面領域のタッチ入力を確認し、前記N個の顔面領域のうち有効顔面領域に対応する特定顔面領域がタッチ入力された場合、前記タッチされた特定顔面領域を隠蔽顔面領域として処理して表示し、前記N個の顔面領域のうち隠蔽処理された顔面領域に対応する特定顔面領域がタッチ入力された場合、前記タッチされた特定顔面領域の隠蔽を解除して有効顔面領域として表示することができる。
一方、前記無線端末100のアプリケーション150は、セルフカメラ判別部170と、肖像権保護活性化部175をさらに具備して構成され得る。
前記セルフカメラ判別部170は、前記映像情報や写真情報を撮影したカメラ情報を判読して、前記タッチスクリーンを具備した面に搭載された前面カメラ部を通じて撮影されたものか判別し、前記映像情報や写真情報に含まれた最近接顔面領域の大きさと前記映像情報や写真情報の全体の領域の大きさの間の比率を判読して、既設定されたセルフカメラ比率範囲に含まれるかを判別することができる。
前記肖像権保護活性化部175は、前記セルフカメラ判別部170を通じて前記映像情報や写真情報が前記前面カメラ部を通じて撮影され、前記最近接顔面領域の大きさと全体の領域の大きさの間の比率が既設定されたセルフカメラ比率範囲に含まれる場合、前記映像情報や写真情報に含まれた顔面領域のうち未登録顔面領域を隠蔽処理する肖像権保護機能を活性化することができる。
一方、前記無線端末100のアプリケーション150は、タッチ入力活性化部180と、特徴点正規化部185と、学習処理部190と、情報保存部195をさらに具備して構成され得る。
前記タッチ入力活性化部180は、N個の顔面領域が認識された映像情報や写真情報を前記タッチスクリーンに出力した場合、前記タッチスクリーンに出力される映像情報や写真情報に含まれたN個の顔面領域別タッチ入力を活性化処理することができる。例えば、前記タッチ入力活性化は、自動で活性化するか、メニュー選択や操作によって手動で活性化することが可能である。
前記特徴点正規化部185は、前記顔面領域処理部165を通じて少なくとも一つの有効顔面領域が決定された場合、前記有効顔面領域に対応する顔面特徴点関係を正規化することができる。
本発明の実施方法によると、前記特徴点正規化部185は、前記顔面領域処理部165を通じて少なくとも一つの有効顔面領域が決定され、前記特徴点認識部155を通じて前記有効顔面領域に対応する顔面特徴点関係の少なくとも一部の特徴点関係が指定された許容範囲内で変化した表情変化特徴点関係が認識される場合、前記認識された表情変化特徴点関係を正規化することができる。
前記学習処理部190は、前記特徴点正規化部185を通じて前記有効顔面領域に対応する顔面特徴点関係が正規化されると、前記正規化された顔面特徴点関係を前記マッチングされた顔面特徴点の組み合わせに含まれるように学習させることができる。
本発明の実施方法によると、前記特徴点正規化部185を通じて前記認識された表情変化特徴点関係が正規化されると、前記正規化された表情変化特徴点関係を前記マッチングされた顔面特徴点の組み合わせに含まれるように学習させることができる。
前記情報保存部195は前記顔面領域処理部165を通じて少なくとも一つの有効顔面領域または隠蔽顔面領域が決定されると、有効顔面領域や隠蔽顔面領域を含む映像情報や写真情報を指定された保存領域(例えば、無線端末のメモリ部または運営サーバーのDB)に保存することができる。ここで、前記映像情報または写真情報は自動保存されるか、またはメニュー選択によって手動保存され得る。
図2は本発明の一実施方法に係る無線端末のカメラ部を通じて撮影されて認識された顔面領域を有効顔面領域または隠蔽顔面領域として処理する過程を図示した図面である。
より詳細には、図2は前記図1に図示された無線端末100に設置されたアプリケーション150を通じて前記無線端末100の指定されたカメラ部140を通じて撮影される映像情報または写真情報を判読して、前記判読された映像情報または写真情報に含まれた一つ以上の顔面領域を認識し、表示対象と設定された顔面領域を判別するために登録された顔面特徴点の組み合わせに基づいて前記認識された一つ以上の顔面領域を有効顔面領域として決定するかまたは隠蔽顔面領域として処理する過程を図示したものであって、本発明が属した技術分野で通常の知識を有する者であれば、図2を参照および/または変形して前記過程に対する多様な実施方法を類推できるであろうが、本発明は前記類推されるすべての実施方法を含んで構成され、図2に図示された実施方法のみにその技術的特徴が限定されるものではない。
図2を参照すると、図示された実施方法は、前記図1に図示された無線端末100のアプリケーション150で指定されたカメラ部140を通じて映像情報や写真情報を獲得する過程から開始され得る200。ここで、前記映像情報は前記カメラ部140を通じて入力されて指定されたバッファー領域にバッファリングされる映像情報または前記カメラ部140を通じて撮影されて指定された保存領域にファイル形態で保存された映像情報を含むことができる。
前記映像情報や写真情報が獲得されると、前記無線端末100のアプリケーション150は前記獲得される映像情報や写真情報を判読して、N(N≧1)個の顔面領域に対応するN個の顔面領域別N個の顔面特徴点関係を認識する205。
本発明の実施方法によると、前記無線端末100のアプリケーション150は、前記顔面特徴点関係を認識する過程で前記映像情報や写真情報を前記タッチスクリーン上の指定された領域に出力することができ、N個の顔面領域が認識された映像情報や写真情報を前記タッチスクリーンに出力した場合、前記タッチスクリーンに出力される映像情報や写真情報に含まれたN個の顔面領域別タッチ入力を活性化処理することができる。
前記N個の顔面領域別N個の顔面特徴点関係が認識されると、前記無線端末100のアプリケーション150は表示対象と設定された顔面領域を判別するために登録された顔面特徴点の組み合わせを保存管理する指定されたメモリ部145と連動して、前記映像情報や写真情報から認識されたN個の顔面特徴点関係のうち前記登録された特定の顔面特徴点の組み合わせの少なくとも一部と既設定された許容誤差範囲内でマッチングされるn(0≦n≦N)個の顔面特徴点関係を判別する210。
ここで、前記メモリ部145は、M(M≧1)個の顔面を判別するためのM個の顔面別M個の顔面特徴点の組み合わせを保存し、前記無線端末100のアプリケーション150はM個の顔面特徴点の組み合わせのうちいずれか一つの特定の顔面特徴点の組み合わせの少なくとも一部と既設定された許容誤差範囲内でマッチングされるn個の顔面特徴点関係を判別することができる。
前記マッチングされるn個の顔面特徴点関係が判別されると、前記無線端末100のアプリケーション150は前記映像情報や写真情報に含まれたN個の顔面領域のうち、前記マッチングされたn個の顔面特徴点関係に対応するn個の顔面領域を有効顔面領域として決定するか非マッチングされた(N−n)個の顔面特徴点関係に対応する(N−n)個の顔面領域を隠蔽顔面領域として処理する215。
ここで、前記無線端末100のアプリケーション150は前記映像情報や写真情報に含まれたN個の顔面領域のうち、前記登録された顔面特徴点の組み合わせと既設定された許容誤差範囲内でマッチングされたn個の顔面特徴点関係に対応するn個の顔面領域を有効顔面領域として表示することができる。
または前記無線端末100のアプリケーション150は前記映像情報や写真情報に含まれたN個の顔面領域のうち、前記登録された顔面特徴点の組み合わせと既設定された許容誤差範囲内でマッチングされていない(N−n)個の顔面特徴点関係に対応する(N−n)個の顔面領域を隠蔽顔面領域として処理することができる。
ここで、前記無線端末100のアプリケーション150は前記有効顔面領域や隠蔽顔面領域を含む映像情報や写真情報を前記メモリ部145または運営サーバー197のD/Bに保存することができる。
図3は、本発明の他の一実施方法に係る無線端末のカメラ部を通じて撮影されて認識された顔面領域を有効顔面領域または隠蔽顔面領域として処理する過程を図示した図面である。
より詳細には、図3は前記図1に図示された無線端末100に設置されたアプリケーション150を通じて前記無線端末100の指定されたカメラ部140を通じて撮影される映像情報または写真情報を判読して、前記判読された映像情報または写真情報に含まれた一つ以上の顔面領域を認識し、前記認識された顔面領域を優先的に隠蔽顔面領域として処理した後、表示対象と設定された顔面領域を判別するために登録された顔面特徴点の組み合わせとマッチングされる顔面領域を有効顔面領域として決定する過程を図示したものであって、本発明が属した技術分野で通常の知識を有する者であれば、図3を参照および/または変形して前記過程に対する多様な実施方法を類推できるであろうが、本発明は前記類推されるすべての実施方法を含んで構成され、図3に図示された実施方法のみにその技術的特徴が限定されるものではない。
図3を参照すると、図示された実施方法は、前記図1に図示された無線端末100のアプリケーション150で指定されたカメラ部140を通じて映像情報や写真情報を獲得する過程から開始され得る300。ここで、前記映像情報は前記カメラ部140を通じて入力されて指定されたバッファー領域にバッファリングされる映像情報または前記カメラ部140を通じて撮影されて指定された保存領域にファイル形態で保存された映像情報を含むことができる。
前記映像情報や写真情報が獲得されると、前記無線端末100のアプリケーション150は前記獲得される映像情報や写真情報を判読して、N(N≧1)個の顔面領域に対応するN個の顔面領域別N個の顔面特徴点関係を認識する305。
本発明の実施方法によると、前記無線端末100のアプリケーション150は前記顔面特徴点関係を認識する過程で前記映像情報や写真情報を前記タッチスクリーン上の指定された領域に出力することができ、N個の顔面領域が認識された映像情報や写真情報を前記タッチスクリーンに出力した場合、前記タッチスクリーンに出力される映像情報や写真情報に含まれたN個の顔面領域別タッチ入力を活性化処理することができる。
前記N個の顔面領域別N個の顔面特徴点関係が認識されると、前記無線端末100のアプリケーション150は前記認識されたN個の顔面領域を隠蔽顔面領域として処理する310。
以後、前記無線端末100のアプリケーション150は、表示対象と設定された顔面領域を判別するために登録された顔面特徴点の組み合わせを保存管理する指定されたメモリ部145と連動して、前記映像情報や写真情報から認識されたN個の顔面特徴点関係のうち、前記登録された特定の顔面特徴点の組み合わせの少なくとも一部と既設定された許容誤差範囲内でマッチングされるn(0≦n≦N)個の顔面特徴点関係を判別する(315)。ここで、前記メモリ部145は、M(M≧1)個の顔面を判別するためのM個の顔面別M個の顔面特徴点の組み合わせを保存し、前記無線端末100のアプリケーション150はM個の顔面特徴点の組み合わせのうちいずれか一つの特定の顔面特徴点の組み合わせの少なくとも一部と既設定された許容誤差範囲内でマッチングされるn個の顔面特徴点関係を判別することができる。
そして、前記無線端末100のアプリケーション150は前記マッチングされるn個の顔面特徴点関係が判別されると、前記映像情報や写真情報に含まれたN個の顔面領域のうち、前記マッチングされたn個の顔面特徴点関係に対応するn個の顔面領域を有効顔面領域として決定する320。
ここで、前記無線端末100のアプリケーション150は前記有効顔面領域や隠蔽顔面領域を含む映像情報や写真情報を前記メモリ部145または運営サーバー197のD/Bに保存することができる。
図4は、本発明の一実施方法に係るタッチスクリーンをタッチして有効顔面領域または隠蔽顔面領域を処理する過程を図示した図面である。
より詳細には、図4は前記図2または図3の過程を通じて有効顔面領域が決定されるかまたは隠蔽顔面領域が処理された後、前記有効顔面領域や隠蔽顔面領域を含む映像情報や写真情報が前記タッチスクリーン上の指定された領域に出力されると、前記タッチスクリーンに出力される映像情報や写真情報に含まれた顔面領域別タッチ入力を活性化処理し、前記タッチスクリーンを通じてのいずれか一つの特定顔面領域のタッチ入力を確認して前記有効顔面領域を隠蔽顔面領域として処理したり、前記隠蔽顔面領域を有効顔面領域として処理する過程を図示したものであって、本発明が属した技術分野で通常の知識を有する者であれば、図4を参照および/または変形して前記過程に対する多様な実施方法を類推できるであろうが、本発明は前記類推されるすべての実施方法を含んで構成され、図4に図示された実施方法のみにその技術的特徴が限定されるものではない。
図4を参照すると、図示された実施方法は、前記図2または図3の過程を通じて有効顔面領域が決定されるかまたは隠蔽顔面領域が処理された後、前記無線端末100のアプリケーション150で前記有効顔面領域や隠蔽顔面領域を含む映像情報や写真情報を前記タッチスクリーン上の指定された領域に出力する過程から開始され得る400。
前記有効顔面領域や隠蔽顔面領域を含む映像情報や写真情報が前記タッチスクリーン上の指定された領域に出力されると、前記無線端末100のアプリケーション150は前記タッチスクリーンに出力される映像情報や写真情報に含まれたN個の顔面領域別タッチ入力を活性化処理する405。ここで前記タッチ入力活性化は、自動で活性化するか、メニュー選択や操作によって手動で活性化することができる。
前記N個の顔面領域別タッチ入力が活性化した映像情報や写真情報を前記タッチスクリーンに出力されると、前記無線端末100のアプリケーション150は前記映像情報や写真情報に含まれたN個の顔面領域のうち前記タッチスクリーンを通じてのいずれか一つの特定顔面領域のタッチ入力を確認する410。
そして、前記無線端末100のアプリケーション150は前記N個の顔面領域のうち有効顔面領域に対応する特定顔面領域がタッチ入力された場合、前記タッチされた特定顔面領域を隠蔽顔面領域として処理して表示し、前記N個の顔面領域のうち隠蔽処理された顔面領域に対応する特定顔面領域がタッチ入力された場合、前記タッチされた特定顔面領域の隠蔽を解除して有効顔面領域として表示する415。
ここで、前記無線端末100のアプリケーション150は前記有効顔面領域や隠蔽顔面領域を含む映像情報や写真情報を前記メモリ部145または運営サーバー197のD/Bに保存することができる。
図5は本発明の一実施方法に係る有効顔面領域に対応する顔面特徴点関係を学習させる過程を図示した図面である。
より詳細には、図5は前記図2または図3または図4の過程を通じて少なくとも一つ以上の有効顔面領域が決定された後、前記有効顔面領域に対応する顔面特徴点関係を正規化し、正規化された顔面特徴点関係をマッチングされた顔面特徴点の組み合わせに含まれるように学習させる過程を図示したものであって、本発明が属した技術分野で通常の知識を有する者であれば、図5を参照および/または変形して前記過程に対する多様な実施方法を類推できるであろうが、本発明は前記類推されるすべての実施方法を含んで構成され、図5に図示された実施方法のみにその技術的特徴が限定されるものではない。
図5を参照すると、図示された実施方法は、前記図2または図3または図4の過程を通じて少なくとも一つ以上の有効顔面領域が決定された後、無線端末100のアプリケーション150で前記決定された有効顔面領域を確認する過程から開始され得る500。
前記決定された有効顔面領域が確認されると、前記無線端末100のアプリケーション150は前記有効顔面領域に対応する顔面特徴点関係を正規化する505。
そして、前記無線端末100のアプリケーション150は前記正規化された顔面特徴点関係を前記マッチングされた顔面特徴点の組み合わせに含まれるように学習させる510。
前記無線端末100のアプリケーション150は前記学習された顔面特徴点の組み合わせをメモリ部145(または運営サーバーのD/B)に保存し515、前記有効顔面領域や隠蔽顔面領域を含む映像情報や写真情報を前記メモリ部145または運営サーバー197のD/Bに保存する520。
100:無線端末
105:制御部
110:画面出力部
115:使用者入力部
120:サウンド処理部
125:近距離無線部
130:近距離網通信部
135:無線網通信部
140:カメラ部
145:メモリ部
150:アプリケーション
155:特徴点認識部
160:特徴点判別部
165:顔面領域処理部
170:セルフカメラ判別部
175:肖像権保護活性化部
180:タッチ入力活性化部
185:特徴点正規化部
190:学習処理部
195:情報保存部
105:制御部
110:画面出力部
115:使用者入力部
120:サウンド処理部
125:近距離無線部
130:近距離網通信部
135:無線網通信部
140:カメラ部
145:メモリ部
150:アプリケーション
155:特徴点認識部
160:特徴点判別部
165:顔面領域処理部
170:セルフカメラ判別部
175:肖像権保護活性化部
180:タッチ入力活性化部
185:特徴点正規化部
190:学習処理部
195:情報保存部
Claims (15)
- タッチスクリーンと一つ以上のカメラ部を具備する顔面領域を処理する装置であって、
映像情報または写真情報を獲得するカメラ部と、
前記カメラ部から前記映像情報または写真情報の伝達を受けて顔面領域を認識し、前記顔面領域を有効顔面領域および隠蔽顔面領域に区分するアプリケーションを含む制御部と、
前記有効顔面領域および隠蔽顔面領域を保存するメモリ部と、を含むことを特徴とする、顔面領域を処理する装置。 - 前記アプリケーションは、
前記映像情報または写真情報を判読して、N個の顔面領域を認識することによって、N個の前記顔面領域に対応するN個の顔面特徴点関係を認識する特徴点認識部をさらに含むことを特徴とする、請求項1に記載の顔面領域を処理する装置。 - 前記アプリケーションは、
前記映像情報または写真情報を判読して、認識されたN個の顔面領域を前記隠蔽顔面領域として決定することを特徴とする、請求項1に記載の顔面領域を処理する装置。 - 前記特徴点関係は、
正面方向の顔面特徴点関係、左側方向の顔面特徴点関係、右側方向の顔面特徴点関係、上側方向の顔面特徴点関係、下側方向の顔面特徴点関係、左上側方向の顔面特徴点関係、左下側方向の顔面特徴点関係、右上側方向の顔面特徴点関係および右下側方向の顔面特徴点関係を含むことを特徴とする、請求項2に記載の顔面領域を処理する装置。 - 前記制御部はあらかじめ設定されたM個の顔面特徴点の組み合わせおよびあらかじめ設定された許容誤差範囲をさらに含み、
前記顔面特徴点の組み合わせは、
正面方向の顔面特徴点関係、左側方向の顔面特徴点関係、右側方向の顔面特徴点関係、上側方向の顔面特徴点関係、下側方向の顔面特徴点関係、左上側方向の顔面特徴点関係、左下側方向の顔面特徴点関係、右上側方向の顔面特徴点関係および右下側方向の顔面特徴点関係のうち少なくとも一つまたは二つ以上の和集合からなることを特徴とする、請求項2または請求項3に記載の顔面領域を処理する装置。 - 前記アプリケーションは特徴点判別部をさらに含み、
前記特徴点判別部は前記N個の顔面特徴点の組み合わせのうち前記あらかじめ設定された許容誤差範囲内でマッチングされるn個の顔面特徴点関係を判別することを特徴とする、請求項5に記載の顔面領域を処理する装置。 - 前記n個の顔面特徴点関係に対応するn個の顔面領域を有効顔面領域として決定する顔面領域処理部をさらに含むことを特徴とする、請求項6に記載の顔面領域を処理する装置。
- 前記顔面領域処理部は,前記N個の顔面領域のうち(N−n)個の前記顔面特徴点関係に対応する(N−n)個の顔面領域を前記隠蔽顔面領域として決定することを特徴とする、請求項7に記載の顔面領域を処理する装置。
- 前記アプリケーションは、前記タッチスクリーン上に出力された前記映像情報または写真情報をN個の顔面領域別にタッチ可能であるように活性化するタッチ入力活性化部をさらに含むことを特徴とする、請求項1に記載の顔面領域を処理する装置。
- 前記タッチ入力活性化部は、前記有効顔面領域および前記隠蔽顔面領域を前記タッチスクリーン上に出力することを特徴とする、請求項9に記載の顔面領域を処理する装置。
- 前記タッチ入力活性化部は,前記タッチスクリーン上に出力された前記有効顔面領域または隠蔽顔面領域のタッチ入力を確認し、
タッチ入力された前記有効顔面領域または隠蔽顔面領域を前記隠蔽顔面領域または有効顔面領域にそれぞれ切り替えて出力することを特徴とする、請求項9に記載の顔面領域を処理する装置。 - 前記アプリケーションは、前記映像情報または写真情報に含まれた最近接顔面領域の大きさおよび前記映像情報または写真情報の全体の領域の大きさの間の比率を判読するセルフカメラ判別部をさらに含み、
前記セルフカメラ判別部は、前記カメラ部を通じての前記映像情報または写真情報の撮影の有無を判別することを特徴とする、請求項2または請求項3に記載の顔面領域を処理する装置。 - 前記アプリケーションは、前記有効顔面領域に対応する前記顔面特徴点関係を正規化する特徴点正規化部をさらに含むことを特徴とする、請求項1に記載の顔面領域を処理する装置。
- 正規化された前記顔面特徴点関係を前記あらかじめ設定された顔面特徴点の組み合わせに含ませる学習処理部をさらに含むことを特徴とする、請求項13に記載の顔面領域を処理する装置。
- タッチスクリーンと一つ以上のカメラ部を具備した無線端末を利用して顔面領域を処理する方法において、
指定されたカメラ部を通じて獲得される映像情報や写真情報を判読して、N(N≧1)個の顔面領域に対応するN個の顔面領域別N個の顔面特徴点関係を認識する第1段階と、
表示対象と設定された顔面領域を判別するために登録された顔面特徴点の組み合わせを保存管理する指定された保存媒体と連動して、前記映像情報や写真情報から認識されたN個の顔面特徴点関係のうち前記登録された特定の顔面特徴点の組み合わせの少なくとも一部と既設定された許容誤差範囲内でマッチングされるn(0≦n≦N)個の顔面特徴点関係を判別する第2段階と、
前記映像情報や写真情報に含まれたN個の顔面領域のうち、前記マッチングされたn個の顔面特徴点関係に対応するn個の顔面領域を有効顔面領域として決定するか非マッチングされた(N−n)個の顔面特徴点関係に対応する(N−n)個の顔面領域を隠蔽顔面領域として処理する第3段階と、を含む、顔面領域を処理する方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180150270A KR102238939B1 (ko) | 2018-11-29 | 2018-11-29 | 무선단말을 이용한 초상권 보호 방법 |
KR10-2018-0150270 | 2018-11-29 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020087399A true JP2020087399A (ja) | 2020-06-04 |
Family
ID=70908507
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019003767A Pending JP2020087399A (ja) | 2018-11-29 | 2019-01-11 | 顔面領域を処理する装置および方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2020087399A (ja) |
KR (1) | KR102238939B1 (ja) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006217161A (ja) * | 2005-02-02 | 2006-08-17 | Advanced Telecommunication Research Institute International | 画像撮影システム |
JP2008017093A (ja) * | 2006-07-05 | 2008-01-24 | Matsushita Electric Ind Co Ltd | 監視システム、監視装置及び監視方法 |
JP2014085796A (ja) * | 2012-10-23 | 2014-05-12 | Sony Corp | 情報処理装置およびプログラム |
WO2015001791A1 (ja) * | 2013-07-03 | 2015-01-08 | パナソニックIpマネジメント株式会社 | 物体認識装置及び物体認識方法 |
WO2015146101A1 (ja) * | 2014-03-28 | 2015-10-01 | 日本電気株式会社 | 顔照合装置、方法、及び、記録媒体 |
JP2017175606A (ja) * | 2016-03-22 | 2017-09-28 | キヤノン株式会社 | 電子機器およびその制御方法、ならびに撮像装置 |
JP2017533484A (ja) * | 2014-07-31 | 2017-11-09 | サムスン エレクトロニクス カンパニー リミテッド | 撮影制限要素を含む映像を修正する方法、それを遂行するためのデバイス及び該システム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4036051B2 (ja) * | 2002-07-30 | 2008-01-23 | オムロン株式会社 | 顔照合装置および顔照合方法 |
JP2009094946A (ja) * | 2007-10-11 | 2009-04-30 | Fujifilm Corp | 撮像装置及び撮像装置における肖像権保護方法 |
JP2009176005A (ja) * | 2008-01-24 | 2009-08-06 | Toyota Motor Corp | 顔画像の特徴点検出方法およびその装置 |
JP5795979B2 (ja) * | 2012-03-15 | 2015-10-14 | 株式会社東芝 | 人物画像処理装置、及び人物画像処理方法 |
-
2018
- 2018-11-29 KR KR1020180150270A patent/KR102238939B1/ko active IP Right Grant
-
2019
- 2019-01-11 JP JP2019003767A patent/JP2020087399A/ja active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006217161A (ja) * | 2005-02-02 | 2006-08-17 | Advanced Telecommunication Research Institute International | 画像撮影システム |
JP2008017093A (ja) * | 2006-07-05 | 2008-01-24 | Matsushita Electric Ind Co Ltd | 監視システム、監視装置及び監視方法 |
JP2014085796A (ja) * | 2012-10-23 | 2014-05-12 | Sony Corp | 情報処理装置およびプログラム |
WO2015001791A1 (ja) * | 2013-07-03 | 2015-01-08 | パナソニックIpマネジメント株式会社 | 物体認識装置及び物体認識方法 |
WO2015146101A1 (ja) * | 2014-03-28 | 2015-10-01 | 日本電気株式会社 | 顔照合装置、方法、及び、記録媒体 |
JP2017533484A (ja) * | 2014-07-31 | 2017-11-09 | サムスン エレクトロニクス カンパニー リミテッド | 撮影制限要素を含む映像を修正する方法、それを遂行するためのデバイス及び該システム |
JP2017175606A (ja) * | 2016-03-22 | 2017-09-28 | キヤノン株式会社 | 電子機器およびその制御方法、ならびに撮像装置 |
Also Published As
Publication number | Publication date |
---|---|
KR20200065115A (ko) | 2020-06-09 |
KR102238939B1 (ko) | 2021-04-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3041280B1 (en) | Method, apparatuses and computer system for binding intelligent devices | |
US10560491B2 (en) | Methods and apparatuses for binding with device | |
JP6360558B2 (ja) | ファイルロック方法、ファイルロック装置、プログラム、及び記録媒体 | |
CN105094732B (zh) | 屏幕显示方法及装置 | |
EP3076716A1 (en) | Method and apparatus for network access | |
EP3174027B1 (en) | Method and apparatus for connecting with controlled smart device, computer program and recording medium | |
EP3110188A1 (en) | Method and device for accessing operator network | |
WO2016192323A1 (zh) | 视频通信方法及装置 | |
US9769667B2 (en) | Methods for controlling smart device | |
JP7125834B2 (ja) | 画像取得方法および装置 | |
RU2637470C2 (ru) | Способ и устройство для обнаружения интеллектуального устройства | |
US10102505B2 (en) | Server-implemented method, terminal-implemented method and device for acquiring business card information | |
EP3229423B1 (en) | Method and device for displaying setting interface of router | |
JP6250867B2 (ja) | ネットワーク接続方法、装置、プログラム及び記録媒体 | |
EP2991336A1 (en) | Image capturing method and apparatus | |
KR101203516B1 (ko) | 휴대용 단말기 및 그의 영상이미지 파일 관리방법 | |
US9954691B2 (en) | Method and apparatus for binding intelligent device | |
CN109219036B (zh) | 解绑设备的方法及装置、电子设备 | |
EP3200116A1 (en) | Method and apparatus for acquiring information via a virtual identity module from lost or stolen terminal | |
WO2017071074A1 (zh) | 建立连接的方法及装置 | |
WO2017016057A1 (zh) | 智能设备接入路由器的方法、装置以及系统 | |
US20180146420A1 (en) | Method and apparatus for establishing network connection | |
JP2008306487A (ja) | 個人識別通信システム及び個人識別通信システムにおいて実行されるプログラム | |
CN105100348A (zh) | 电话呼叫方法及装置 | |
EP3438924B1 (en) | Method and device for processing picture |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190111 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200128 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200901 |