KR102271673B1 - 상호협력 기반 파파라치샷 촬영 서비스 제공 방법 - Google Patents
상호협력 기반 파파라치샷 촬영 서비스 제공 방법 Download PDFInfo
- Publication number
- KR102271673B1 KR102271673B1 KR1020200127366A KR20200127366A KR102271673B1 KR 102271673 B1 KR102271673 B1 KR 102271673B1 KR 1020200127366 A KR1020200127366 A KR 1020200127366A KR 20200127366 A KR20200127366 A KR 20200127366A KR 102271673 B1 KR102271673 B1 KR 102271673B1
- Authority
- KR
- South Korea
- Prior art keywords
- terminal
- user
- photo
- photographing
- paparazzi
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 85
- 238000012545 processing Methods 0.000 claims description 9
- 238000011156 evaluation Methods 0.000 claims description 4
- 238000009826 distribution Methods 0.000 claims description 3
- 210000001015 abdomen Anatomy 0.000 claims description 2
- 230000003213 activating effect Effects 0.000 claims 1
- 238000013527 convolutional neural network Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 16
- 238000004422 calculation algorithm Methods 0.000 description 15
- 238000013528 artificial neural network Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 11
- 238000003860 storage Methods 0.000 description 10
- 238000013473 artificial intelligence Methods 0.000 description 9
- 238000001514 detection method Methods 0.000 description 9
- 230000001815 facial effect Effects 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 8
- 238000012217 deletion Methods 0.000 description 7
- 230000037430 deletion Effects 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000012552 review Methods 0.000 description 6
- 210000000887 face Anatomy 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 5
- 238000000926 separation method Methods 0.000 description 4
- 238000009792 diffusion process Methods 0.000 description 3
- 238000000513 principal component analysis Methods 0.000 description 3
- 238000011084 recovery Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- VYZAMTAEIAYCRO-UHFFFAOYSA-N Chromium Chemical compound [Cr] VYZAMTAEIAYCRO-UHFFFAOYSA-N 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000012847 principal component analysis method Methods 0.000 description 1
- 238000010926 purge Methods 0.000 description 1
- 238000005295 random walk Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
Images
Classifications
-
- G06K9/00221—
-
- G06K9/00362—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0278—Product appraisal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/01—Social networking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G06Q50/30—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/40—Business processes related to the transportation industry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Economics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Primary Health Care (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- Finance (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Entrepreneurship & Innovation (AREA)
- Game Theory and Decision Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Operations Research (AREA)
- Studio Devices (AREA)
Abstract
상호협력 기반 파파라치샷 촬영 서비스 제공 방법이 제공되며, 사용자 단말로부터 파파라치샷 촬영 요청 이벤트를 수신하는 단계, 사용자 단말에서 기 등록한 사용자 프로필 및 원하는 사진 정보를 사용자 단말의 실시간 위치를 기준으로 기 설정된 반경 내에 위치한 적어도 하나의 촬영 단말로 전송하는 단계, 적어도 하나의 촬영 단말에서 사용자가 피사체로 포함된 사진 또는 영상을 촬영하는 단계 및 적어도 하나의 촬영 단말에서 촬영된 사진 또는 영상을 사용자 단말의 계정에 업로드하는 단계를 포함한다.
Description
본 발명은 상호협력 기반 파파라치샷 촬영 서비스 제공 방법에 관한 것으로, 파파라치샷과 같이 자연스러운 설정샷을 사진사의 고용없이 획득할 수 있으면서도 개인정보를 보호할 수 있는 방법을 제공한다.
미디어 환경의 변화로 초상권을 둘러싼 법적 다툼이 많아지면서 자연스레 인격권 보호에 관한 연구도 많아지고 있다. 손 안의 스마트폰은 쉽게 영상을 주고받는 식으로, 전파범위도 국경 없이 전 세계로 확대되고 있어 그 피해의 규모나 심각성은 과거와는 비교할 수 없는 현실이 되었고, 최근 초상권 개념은 개인의 인격권이 존중돼야 한다는 기본 이념과 그 궤를 같이 한다. 따라서 누구도 승낙 없이 촬영당하지 않을 권리, 촬영을 승낙했더라도 그 취지에 맞게 한정해서 사용당할 권리, 초상이 사진이나 동영상, 카툰 등 다른 형식으로 공표될 때 사전 허락을 받을 권리 등을 모두 포함하고 있다. 초상권 관련 판례를 보면, 초상 본인의 동의 없이 또는 본인의 반대에도 불구하고 촬영한 경우, 자료사진이나 화면을 초상본인의 동의 없이 사용한 경우, 촬영조건과 다르게 게재된 경우, 사실과 다르게 왜곡하여 사진을 사용한 경우를 포함하며 초상본인의 동의와 의사를 주요 쟁점으로 삼고 있음을 알 수 있다.
이때, 초상본인의 동의를 전제로 자연스러운 설정샷을 찍고 싶은 사람들을 위하여 파파라치샷을 찍는 방법이 연구 및 개발되었는데, 이와 관련하여 선행기술인 한국등록특허 제10-0738968호(2007년07월12일 공고) 및 한국등록특허 제10-1465186호(2014년12월04일 공고)에는, 사진을 요청하는 유명인사 모드로 제 1 사용자에 의해 동작하고 사진을 촬영하는 파파라치 모드로 동작할 수 있는 제 1 통신 장치와, 제 1 사용자가 파파라치샷을 원한다는 신호를 수신하여 파파라치 모드로 동작하는 제 2 통신 장치를 포함하고, 유명인사 신호가 수신되는 경우 제 1 사용자가 제 2 사용자의 사진을 찍을 수 있는 구성과, 제 1 단말기에서 제 2 단말기로 사진요청 푸시 메세지를 전송하면, 제 2 단말기에서 촬영한 사진이나 영상 중 일부를 선택하여 외부 데이터베이스에 저장 및 업데이트하며, 외부 데이터베이스가 업데이트되면 제 1 단말기에서 촬영된 사진 또는 영상을 제 1 단말기의 디스플레이에 실시간으로 표시하는 구성이 각각 개시되어 있다.
다만, 상술한 판례들의 기본 개념을 고려하면, 초상본인의 동의가 있더라도 사진촬영자가 초상본인이 피사체로 포함된 사진을, 초상본인의 의사에 반하여 유용하는 것을 금지하고 있는데, 상술한 구성들을 이용한다고 할지라도, 사진촬영자의 단말 내에 초상본인이 피사체인 사진이 저장되어 있기 때문에 유용이나 무단게재를 막을 수 있는 방법이 없다. 초상본인이 포함된 사진을 사진촬영자가 본인에게 넘겨준다고 할지라도, 디지털 데이터의 특성상 복사본을 제공할 수도 있고 원본을 넘겨주지 않을 가능성도 존재하기 때문에 전파가능성은 전세계로까지 확대될 수 있다. 이에, 파파라치샷을 별도의 사진사의 고용없이 찍을 수 있으면서도 초상권과 관련한 소송이나 분쟁 또 개인정보도용을 근본적으로 제거할 수 있는 플랫폼의 연구 및 개발이 요구되고 있다.
본 발명의 일 실시예는, 파파라치샷을 원하는 사용자 단말에서 사진촬영 요청 이벤트를 출력하면, 기 설정된 반경 이내에 포함된 적어도 하나의 촬영 단말로 사용자의 프로필 및 원하는 종류의 사진 정보가 노출되고, 적어도 하나의 촬영 단말에서 사용자가 피사체로 포함된 사진을 촬영하는 경우 촬영된 사진은 촬영 단말에 저장되지 않고 바로 서버로 업로드되도록 함으로써, 타인이 초상본인의 사진을 유용할 수 있는 가능성을 원천적으로 차단하면서도, 자연스러운 설정샷과 같은 파파라치샷을 사진사의 고용없이도 상호협력의 플랫폼으로 얻을 수 있는, 상호협력 기반 파파라치샷 촬영 서비스 제공 방법을 제공할 수 있다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예는, 사용자 단말로부터 파파라치샷 촬영 요청 이벤트를 수신하는 단계, 사용자 단말에서 기 등록한 사용자 프로필 및 원하는 사진 정보를 사용자 단말의 실시간 위치를 기준으로 기 설정된 반경 내에 위치한 적어도 하나의 촬영 단말로 전송하는 단계, 적어도 하나의 촬영 단말에서 사용자가 피사체로 포함된 사진 또는 영상을 촬영하는 단계 및 적어도 하나의 촬영 단말에서 촬영된 사진 또는 영상을 사용자 단말의 계정에 업로드하는 단계를 포함한다.
전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 파파라치샷을 원하는 사용자 단말에서 사진촬영 요청 이벤트를 출력하면, 기 설정된 반경 이내에 포함된 적어도 하나의 촬영 단말로 사용자의 프로필 및 원하는 종류의 사진 정보가 노출되고, 적어도 하나의 촬영 단말에서 사용자가 피사체로 포함된 사진을 촬영하는 경우 촬영된 사진은 촬영 단말에 저장되지 않고 바로 서버로 업로드되도록 함으로써, 타인이 초상본인의 사진을 유용할 수 있는 가능성을 원천적으로 차단하면서도, 자연스러운 설정샷과 같은 파파라치샷을 사진사의 고용없이도 상호협력의 플랫폼으로 얻을 수 있다.
도 1은 본 발명의 일 실시예에 따른 상호협력 기반 파파라치샷 촬영 서비스 제공 시스템을 설명하기 위한 도면이다.
도 2는 도 1의 시스템에 포함된 촬영 서비스 제공 서버를 설명하기 위한 블록 구성도이다.
도 3 및 도 4는 본 발명의 일 실시예에 따른 상호협력 기반 파파라치샷 촬영 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 상호협력 기반 파파라치샷 촬영 서비스 제공 방법을 설명하기 위한 동작 흐름도이다.
도 2는 도 1의 시스템에 포함된 촬영 서비스 제공 서버를 설명하기 위한 블록 구성도이다.
도 3 및 도 4는 본 발명의 일 실시예에 따른 상호협력 기반 파파라치샷 촬영 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 상호협력 기반 파파라치샷 촬영 서비스 제공 방법을 설명하기 위한 동작 흐름도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
명세서 전체에서 사용되는 정도의 용어 "약", "실질적으로" 등은 언급된 의미에 고유한 제조 및 물질 허용오차가 제시될 때 그 수치에서 또는 그 수치에 근접한 의미로 사용되고, 본 발명의 이해를 돕기 위해 정확하거나 절대적인 수치가 언급된 개시 내용을 비양심적인 침해자가 부당하게 이용하는 것을 방지하기 위해 사용된다. 본 발명의 명세서 전체에서 사용되는 정도의 용어 "~(하는) 단계" 또는 "~의 단계"는 "~ 를 위한 단계"를 의미하지 않는다.
본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. 한편, '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, '~부'는 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체 지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.
본 명세서에 있어서 단말, 장치 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말, 장치 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말, 장치 또는 디바이스에서 수행될 수도 있다.
본 명세서에서 있어서, 단말과 매핑(Mapping) 또는 매칭(Matching)으로 기술된 동작이나 기능 중 일부는, 단말의 식별 정보(Identifying Data)인 단말기의 고유번호나 개인의 식별정보를 매핑 또는 매칭한다는 의미로 해석될 수 있다.
이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 상호협력 기반 파파라치샷 촬영 서비스 제공 시스템을 설명하기 위한 도면이다. 도 1을 참조하면, 상호협력 기반 파파라치샷 촬영 서비스 제공 시스템(1)은, 적어도 하나의 사용자 단말(100), 촬영 서비스 제공 서버(300) 및 적어도 하나의 촬영 단말(400)을 포함할 수 있다. 다만, 이러한 도 1의 상호협력 기반 파파라치샷 촬영 서비스 제공 시스템(1)은, 본 발명의 일 실시예에 불과하므로, 도 1을 통하여 본 발명이 한정 해석되는 것은 아니다.
이때, 도 1의 각 구성요소들은 일반적으로 네트워크(network, 200)를 통해 연결된다. 예를 들어, 도 1에 도시된 바와 같이, 적어도 하나의 사용자 단말(100)은 네트워크(200)를 통하여 촬영 서비스 제공 서버(300)와 연결될 수 있다. 그리고, 촬영 서비스 제공 서버(300)는, 네트워크(200)를 통하여 적어도 하나의 사용자 단말(100), 적어도 하나의 촬영 단말(400)과 연결될 수 있다. 또한, 적어도 하나의 촬영 단말(400)은, 네트워크(200)를 통하여 촬영 서비스 제공 서버(300)와 연결될 수 있다.
여기서, 네트워크는, 복수의 단말 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예에는 근거리 통신망(LAN: Local Area Network), 광역 통신망(WAN: Wide Area Network), 인터넷(WWW: World Wide Web), 유무선 데이터 통신망, 전화망, 유무선 텔레비전 통신망 등을 포함한다. 무선 데이터 통신망의 일례에는 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), 5GPP(5th Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi), 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), RF(Radio Frequency), 블루투스(Bluetooth) 네트워크, NFC(Near-Field Communication) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.
하기에서, 적어도 하나의 라는 용어는 단수 및 복수를 포함하는 용어로 정의되고, 적어도 하나의 라는 용어가 존재하지 않더라도 각 구성요소가 단수 또는 복수로 존재할 수 있고, 단수 또는 복수를 의미할 수 있음은 자명하다 할 것이다. 또한, 각 구성요소가 단수 또는 복수로 구비되는 것은, 실시예에 따라 변경가능하다 할 것이다.
일반적으로 파파라치란 유명인을 뒤쫓아 다니면서 그들의 은밀한 사생활을 카메라로 찍어 신문사나 잡지사 등에 파는 일을 직업으로 하는 사람을 뜻하고, 파파라치샷(Shot)이란 파파라치가 찍은 사진이나 동영상 등을 일컫지만, 본 발명의 일 실시예에서 파파라치샷이란 본 발명의 일 실시예에 따른 플랫폼 내에서 사용자 단말(100)의 사용자의 요청으로 촬영 단말(400)의 촬영자가 촬영한 사진 또는 동영상으로 정의한다. 이때, 사용자 단말(100)에서 파파라치샷을 요청하는 이유는, 사용자가 다른 사람에게 직접 가서 사진을 찍어달라고 요청할 수도 있지만, 그러한 경우 사용자 본인이 촬영한다는 사실을 인지하고 있기 때문에 하는 행동이나 표정 자체가 어색해지고 부자연스러워지기 때문이다. 이에, 사용자 자신이 사진을 찍히고 있다는 사실을 인지하지 못하면 그 만큼 자연스러운 사진이 나올 가능성이 높아지므로 본 발명의 일 실시예에 따라 파파라치샷을 요청하는 것이다. 다만, 서로 모르는 사이이기 때문에, 또 아는 사이일지라도 사용자 초상본인의 사진이 타인의 단말에 저장됨에 따라 발생할 수 있는 개인정보보호법 및 초상권 등의 문제를 근본적으로 없애기 위하여 촬영 단말(400)에서 찍은 사진은 촬영 단말(400)에 저장되지 않고 바로 촬영 서비스 제공 서버(300)로 업로드시키는 방법을 이용할 수 있다. 이러한 본 발명의 일 실시예의 주요 개념을 이해한 후 이하 각 구성요소를 살펴본다.
적어도 하나의 사용자 단말(100)은, 상호협력 기반 파파라치샷 촬영 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하여 파파라치샷을 요청하는 사용자의 단말일 수 있다. 여기서, 사용자 단말(100)은 파파라치샷을 요청하기 이전에, 자신의 프로필과 같은 정보와, 어떠한 분위기의 사진을 원하는지 등에 대한 정보를 업로드하는 단말일 수 있다. 이때, 사용자와 촬영자는 서로 모르는 사이이기 때문에 사용자를 피사체로, 즉 사진 내에 객체로 포함시키기 위해서는 사용자가 일단 특정이 되어야 하기 때문이다. 물론, 사용자와 촬영자가 서로 아는 사이인 것을 배제하지는 않는다. 그리고, 사용자 자신을 가까이 찍는 것이 좋은지 아니면 멀리 찍는 것이 좋은지, 가운데 배치하는 것이 좋은지, 유명 관광지라면 POI(Point of Interest)가 포함되도록 찍는 것이 좋은지 등이 기재될 수 있고, 이는 촬영자가 사용자의 사진을 찍을 때 참고할 수 있도록 한다. 사용자 단말(100)은, 촬영 단말(400)에서 촬영을 한 경우 촬영 서비스 제공 서버(300)에 접속하여 촬영 사진 또는 동영상을 출력하는 단말일 수 있고, 원하는 사진 또는 동영상을 선택 후 다운로드받을 수 있으며, 이때 정책에 따라 무료일 수도 있지만 유료일 수도 있으므로 결제를 수행할 수 있는 단말일 수 있다. 사용자 단말(100)은 각 사진 또는 동영상별로 별점, 즉 평점이나 리뷰를 입력하여 촬영 서비스 제공 서버(300)로 전송하는 단말일 수 있다.
여기서, 적어도 하나의 사용자 단말(100)은, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 사용자 단말(100)은, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 사용자 단말(100)은, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.
촬영 서비스 제공 서버(300)는, 상호협력 기반 파파라치샷 촬영 서비스 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 제공하는 서버일 수 있다. 그리고, 촬영 서비스 제공 서버(300)는, 사용자 단말(100)에서 프로필 및 원하는 사진에 대한 정보를 업로드하는 경우, 사용자를 등록하고 사용자 단말(100)에서 파파라치샷을 요청하는 경우 요청 이벤트를 사용자 단말(100)의 현위치를 기준으로 기 설정된 반경 내에 위치한 적어도 하나의 촬영 단말(400)로 전송하는 서버일 수 있다. 그리고, 촬영 서비스 제공 서버(300)는, 적어도 하나의 촬영 단말(400)에서 사용자를 사진 또는 동영상으로 촬영한 경우 이를 촬영 단말(400)의 메모리 또는 저장소에 저장시키는 것이 아니라 백그라운드 모드(Background Mode)로 사진 또는 동영상을 촬영 서비스 제공 서버(300)로 업로드시키는 서버일 수 있다. 또한, 촬영 서비스 제공 서버(300)는 사용자 단말(100)로 사진 또는 동영상이 업로드되었다는 사실을 알림으로 전송하고, 사용자 단말(100)이 선택한 사진 또는 동영상을 다운로드할 수 있도록 하는 서버일 수 있다. 이때, 유료 서비스인 경우 촬영 서비스 제공 서버(300)는, 사진 또는 동영상을 다운로드하는데 요금을 부과하는 서버일 수 있다. 또한, 촬영 서비스 제공 서버(300)는 선택한 사진 또는 동영상에 대한 평점이나 리뷰 등을 사용자 단말(100)로부터 수신할 수 있고, 해당 사진 또는 동영상을 촬영한 촬영 단말(400)의 평점으로 누적하여 업데이트하는 서버일 수 있다.
여기서, 촬영 서비스 제공 서버(300)는, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다.
적어도 하나의 촬영 단말(400)은, 상호협력 기반 파파라치샷 촬영 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하는 촬영자의 단말일 수 있다. 물론, 촬영 단말(400)에서도 사용자 단말(100)의 구성 또는 프로세스를 가지거나 수행할 수 있고, 그 역도 마찬가지 이지만 본 발명의 일 실시예에 따른 설명의 편의를 위하여 사용자는 촬영을 요청하는 자로, 촬영자는 그 요청에 응답하여 촬영을 하는 자로 역할을 구분하여 설명하기로 한다. 다만, 각 역할이 한 단말에서 모두 수행될 수 있음은 자명하다 할 것이다. 이때, 적어도 하나의 촬영 단말(400)은 사용자의 프로필 및 원하는 사진 정보를 촬영 서비스 제공 서버(300)로부터 수신하고, 사용자를 촬영한 후 사진 또는 동영상을 촬영 서비스 제공 서버(300)로 업로드하는 단말일 수 있다. 또한, 적어도 하나의 촬영 단말(400)은, 촬영 서비스 제공 서버(300)을 경유하여 사용자 단말(100)의 선택 및 평점을 전달받을 수 있고, 유료 서비스로 다운로드받은 경우 계정에 포인트를 적립 또는 계좌에 입금받는 단말일 수 있다. 이때, 촬영 단말(400)은, 촬영 서비스 제공 서버(300)에서 사용자의 얼굴 또는 신체 비율로 사용자를 식별하도록 인공지능 알고리즘으로 학습한 경우, AR로 촬영하고 있는 피사체 중 어떠한 객체가 사용자인지를 알려주는 표시를 출력할 수 있는 단말일 수 있다.
여기서, 적어도 하나의 촬영 단말(400)은, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 촬영 단말(400)은, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 촬영 단말(400)은, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.
도 2는 도 1의 시스템에 포함된 촬영 서비스 제공 서버를 설명하기 위한 블록 구성도이고, 도 3 및 도 4는 본 발명의 일 실시예에 따른 상호협력 기반 파파라치샷 촬영 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.
도 2를 참조하면, 촬영 서비스 제공 서버(300)는, 수신부(310), 전송부(320), 촬영부(330), 업로드부(340), 저장삭제부(350), 정산부(360), 리뷰평가부(370), 모자이크부(380), 식별부(390) 및 강제삭제부(391)를 포함할 수 있다.
본 발명의 일 실시예에 따른 촬영 서비스 제공 서버(300)나 연동되어 동작하는 다른 서버(미도시)가 적어도 하나의 사용자 단말(100) 및 적어도 하나의 촬영 단말(400)로 상호협력 기반 파파라치샷 촬영 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 전송하는 경우, 적어도 하나의 사용자 단말(100) 및 적어도 하나의 촬영 단말(400)은, 상호협력 기반 파파라치샷 촬영 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 설치하거나 열 수 있다. 또한, 웹 브라우저에서 실행되는 스크립트를 이용하여 서비스 프로그램이 적어도 하나의 사용자 단말(100) 및 적어도 하나의 촬영 단말(400)에서 구동될 수도 있다. 여기서, 웹 브라우저는 웹(WWW: World Wide Web) 서비스를 이용할 수 있게 하는 프로그램으로 HTML(Hyper Text Mark-up Language)로 서술된 하이퍼 텍스트를 받아서 보여주는 프로그램을 의미하며, 예를 들어 넷스케이프(Netscape), 익스플로러(Explorer), 크롬(Chrome) 등을 포함한다. 또한, 애플리케이션은 단말 상의 응용 프로그램(Application)을 의미하며, 예를 들어, 모바일 단말(스마트폰)에서 실행되는 앱(App)을 포함한다.
도 2를 참조하면, 수신부(310)는, 사용자 단말(100)로부터 파파라치샷 촬영 요청 이벤트를 수신할 수 있다. 이때, 사용자 단말(100)은 자신의 현재 위치를 GPS 신호를 함께 송신함으로써 수신부(310)로 전달할 수 있다. 만약, GPS로 정확하지 않은 경우, 예를 들어 실내에 위치한 경우, 사용자 단말(100)에서 접속한 AP(Access Point)를 함께 이용하여 구분하도록 할 수도 있다.
전송부(320)는, 사용자 단말(100)에서 기 등록한 사용자 프로필 및 원하는 사진 정보를 사용자 단말(100)의 실시간 위치를 기준으로 기 설정된 반경 내에 위치한 적어도 하나의 촬영 단말(400)로 전송할 수 있다.
촬영부(330)는, 적어도 하나의 촬영 단말(400)에서 사용자가 피사체로 포함된 사진 또는 영상을 촬영할 수 있다. 또, 촬영부(330)에서 적어도 하나의 촬영 단말(400)에서 사용자가 피사체로 포함된 사진 또는 영상을 촬영할 때, 사용자의 얼굴을 안면인식하거나 사용자의 프로필 정보에 포함된 신체비율에 기반하여 사용자를 식별하고, 식별된 사용자가 피사체로 포함된 경우에만 적어도 하나의 촬영 단말(400)에서 촬영버튼이 활성화되도록 할 수도 있다. 물론, 사용자 A와 촬영자 B가 만나서 서로의 얼굴을 본 후 B가 A의 사진을 찍어주는 경우도 가능하다. 이때에는 서로가 특정된 상태이므로 A를 식별하기 위해 후술한 과정을 진행하지 않아도 된다. 촬영자 B가 찍은 사진은 바로 A의 계정으로 업로드되게 되므로 촬영자 B가 이메일이나 메신저 등을 이용하여 A에게 사진을 전달해주지 않아도 된다.
만약, 파파라치샷을 요청한 A가 존재하고 그 근처에 B 내지 Z가 존재하나 B 내지 Z는 A를 모르는 경우, 일단 A를 촬영하기 위해서 B 내지 Z는 A가 누군지 알아야 한다. A도 B 내지 Z를 모르고 있기도 하고, 만약 찍는다는 사실을 A가 알게 되는 경우 A의 표정이나 행동이 부자연스러워질 수 있기 때문에 A도 누가 자신을 찍는지 모르는 상태를 원한다고 가정하면, B 내지 Z는 일단 A를 찾는 것이 우선이다. A의 앞, 뒤, 양옆 안면과 신체 등을 찍은 사진을 사용자 A가 촬영 서비스 제공 서버(300)로 전송했고, 촬영 서비스 제공 서버(300)에서 해당 사진을 통하여 안면인식 또는 신체비율로 A를 특정할 수 있을 정도로 학습이 진행되었다면, B 내지 Z는 카메라를 켜고 A가 카메라 상에서 AR로 표시될 때 사진이나 동영상을 찍으면 된다.
이때, A의 앞, 뒤, 양옆 안면과 신체 등을 찍은 사진을 프로필로 업로드하지 않는 이유는 사용자의 얼굴이 다수에게 퍼질 수 있기 때문인데, 만약 사용자 A가 동의를 하는 경우에는 이런 방식으로 촬영하는 사람들이 찾는 것도 가능하다. 상세한 사진을 업로드하도록 하는 이유는 기계학습 또는 딥러닝 등과 같이 안면식별을 위한 기준 사진은 해상도가 높고 그늘이 없으며 어느 각도에서든지 인공지능으로 파악을 해야하기 때문에 다양한 방향 및 해상도가 높은 사진을 요구하는 것이다.
만약 해상도가 높은 사진으로 인공지능 알고리즘을 학습했다고 할지라도 촬영 단말(400)의 카메라 해상도가 높지 않거나, 안면을 식별할 정도로 가까이에 있지 않거나 하는 경우를 위하여 신체 비율을 통하여 먼저 사용자 A를 식별하도록 할 수도 있다. 얼굴, 가슴, 배, 다리 등의 길이 및 너비의 비율 등 같이 사람마다 각 부위의 비율 값은 사용자 A를 특정할 만큼 고유할 수 있다. 따라서, 촬영자들이 사용자로부터 멀리서 있더라도 이를 가지고 사용자 A를 식별할 수 있으며 분석하는데 필요한 컴퓨팅 자원량 또는 네트워킹 자원량도 크지 않기 때문이다.
우선 상술한 신체 인식 또는 안면 인식을 설명하기 이전에, 본 발명의 일 실시예에서 사용가능한 인공지능 알고리즘인 딥러닝 CNN(Convolutional Neural Network)과 이 기반으로 개발된 YOLO(You Only Look Once)에 대한 개념을 간단히 설명하기로 한다. 여기서 서술된 개념은 본 발명의 일 실시예를 설명하면서 중복하여 기재하지 않기로 한다.
영상에서 객체 인식을 하는 방법으로 최근에는 인공지능을 활용한 방식이 빈번하게 사용되고 있는데, 그 중 가장 폭넓게 활용하는 방식은 R-CNN 계열의 알고리즘을 들수 있다. 영역 기반의 합성곱을 활용한 방식으로 여러 개의 신경망이 연속적으로 이어져 있고, 각 신경망에 해당하는 가중치 값들이 존재한다. 이 가중치 값은 학습에 의하여 결정되고, 이렇게 결정된 값들은 객체 인식에 이용되는데, Fast R-CNN, Faster R-CNN, Mask R-CNN이 등이 존재한다. 첫 번째 Fast R-CNN은 단일 단계 학습을 통해 백본 네트워크(Backbone Network)를 확보할 수 있다. 3가지 방법 중에 유일하게 기 학습된 가중치를 사용하지 않고, Xavier 초기값을 사용할 수 있다. 단일 단계 학습을 할 수 있어 간단하게 인공지능 모델을 확보할 수 있는 장점이 있지만, 다수의 관심 영역(Region of Interest, ROI) 경계 상자(Boundary Box) 후보군을 생성하는데 시간이 소요된다는 단점이 있다. 이는 주로 긴 연산 시간을 갖는 선택적 검색(Selective Search) 알고리즘 수행에 기인한다.
이 점을 개선하기 위하여 Faster R-CNN에서는 새로운 방법을 제시했는데, 특히 관심 영역 경계 상자 후보군을 생성하는데, 새로운 심층 신경망을 사용한다. 즉, 기존의 알고리즘은 주로 CPU 자원을 활용한 연산을 사용하여 비교적 많은 연산 시간이 소요되었지만, 심층 신경망을 통한다면 GPU를 사용하기 때문에 연산 시간이 단축된다. 이 같은 심층 신경망은 관심 영역의 후보군을 제공하는 기능을 한다고 하여 영역 제안 네트워크(Region Proposal Network)라고 하는데, 백본 네트워크에 비해 상대적으로 적은 신경망 층을 가지고 있다. 이 신경망을 통해 객체 인식을 하는 필요한 하드웨어 자원의 대부분이 CPU에서 GPU로 이동할 수 있다. 다만, 이 같은 구조로 완성된 모델을 만들기 위해서는 여러 단계를 거친 학습 수행이 필요하다. Faster R-CNN은 백본 네트워크, 영역 제안 네트워크, 분류 네트워크(Classifier Network)로 구성되며 이 3 개의 심층 신경망을 학습하기 위해서는 여러 단계의 수행이 필요하므로 다중 단계 학습 기법으로 완성된 모델을 구하는데 시간이 연장될 수도 있다.
R-CNN 계열 방법의 마지막인 Mask R-CNN의 가장 큰 특징은 객체 인식의 분할(Segmentation)까지 가능하다는 점이다. 그 전까지 객체 인식은 영상 내에서 사각 박스를 통해 객체의 위치를 추정하고 그 종류를 구분하였지만, Mask R-CNN에서는 객체 인식 기술에 객체의 위치를 화소 단위로 구분할 수 있도록 심층 신경망을 설계한다. 이 심층 신경망의 역할은 각 화소가 객체에 해당되는 것인지 아닌지를 구분하는 것으로 바이너리 마스크(Binary Mask)라고 한다. 백본 네트워크로부터 얻은 특징 지도(Feature Map)에 바이너리 마스크를 씌워서 화소 단위로 구분을 짓는다. 다만, 일반적인 특징 지도의 크기는 원본 영상의 크기도 4분의 1일에서 16분의 1크기의 수준으로 작다. 이렇게 작아진 특징 지도에서 화소 단위로 객체 영역을 결정하더라도 원본 영상에서는 그 오차가 크게 나타난다. 이 같은 오차를 감소시키기 위하여 관심 영역 정렬(ROI Align)이라는 기법을 사용하는데, 이는 ROI 풀(Pool) 영역에서 생기는 소수점 오차를 2차 선형보간법으로 감소시키는 방법이다.
YOLO 중 YOLO-v3은, 하나의 합성곱 신경망이 동시에 여러 개의 경계 상자 (Bounding Box)를 예측하고, 각 경계 상자에 대하여 분류 확률(Class Probability)을 예측하는 알고리즘이다. 이때, 사용되는 합성곱 신경망은 특징 지도를 생성하는 용도로 활용되는데 알고리즘의 중추를 담당한다고 하여 백본 네트워크라고 부른다. 이 특징 지도는 여러 개의 그리드 셀(Grid Cell)로 구성되는데, 각 셀마다 스코어(Score) 방식을 적용하여 대상 객체의 종류와 위치를 동시에 결정하는 알고리즘이다. 이 알고리즘은 차량, 사람, 비행기, 동물 등을 포함하여 총 20가지 종류를 매 영상 프레임마다 인식하도록 구성된다. 이하에서는, 상술한 개념을 기반으로 본 발명의 일 실시예를 설명하기로 한다.
촬영부(330)는 적어도 하나의 촬영 단말(400)에서 사용자를 촬영하기 위하여 카메라를 턴 온 한 경우, 카메라 화면 내에 포함된 객체의 바디(Body)를 감지 및 추적할 수 있다. 이때, 촬영부(330)는, 영상 프레임 내 관심 영역(Region of Interest) 내 포함된 객체 중 기 설정된 픽셀 또는 기 설정된 크기보다 큰 객체를 감지 및 추적할 수 있다. 여기서, 기 설정된 픽셀은 감지(검지) 기준인 95 픽셀일 수 있고, 이 보다 크거나 같은 객체만을 추적하도록 설정될 수 있다. 이 기준은 검출된 얼굴이 인식에 충분할 수준에 맞게 선정된 것이나, 실시예에 따라 증감될 수 있음은 자명하다 할 것이다.
촬영부(330)는, 객체를 추적하는 트랙렛(Tracklet)을 이용하여 시계열적으로 배열된 영상 프레임 내에서, 객체의 바디를 이루는 적어도 하나의 인체 부위별 비율에 기초하여 감지 및 추적할 수 있다. 영상 프레임에서 객체를 식별하는 과정은, 상술한 바와 같이 총 3 단계로 나뉘어진다. 첫 번째는 감지(Detection), 두 번째는 추적(Tracking), 그리고 마지막인 세 번째는 인식(Recogntion)이다. 이때, 영상 프레임은 시계열적으로 나열된 일련의 이미지이기 때문에, 시간 도메인을 축으로 각 이미지가 서로 연결되게 된다. 해당 이미지 내에서 객체를 검출하기 위해서는, 각 영상 프레임으로부터 객체를 검출하고, 객체의 이동 경로를 연결함으로써 객체에 대한 이동 경로를 나타내는 정보인 트랙렛(Tracklet)을 검출하고, 전체 영상 프레임 내에서 검출된 트랙렛을 연결함으로써 객체에 대한 추적 경로(Trajectory)를 생성하게 된다.
이때, 트랙렛이란, 기 설정된 구간, 다소 짧은 구간에서 객체의 이동 경로를 나타내는 검출 정보를 의미하는데, 임의의 구간 내의 시계열적인 영상 프레임 내에서 객체가 검출하면, 각 영상 프레임 내에서 검출된 객체가 동일 또는 유사한 경우, 동일 또는 유사한 객체를 연결시킴으로써 추출될 수 있다. 예를 들어, 제 1 영상 프레임, 제 2 영상 프레임, 제 3 영상 프레임이 존재하고, 세 개의 영상 프레임 내에서 A 객체 및 B 객체가 검출된 경우를 가정하면, 트랙렛은 제 1 영상 프레임 내 A 객체가 제 2 영상 프레임 내 A 객체와 유사 또는 동일한 경우, 제 1 영상 프레임의 A 객체와 제 2 영상 프레임 내 A 객체를 연결시키는 방식이다. 물론, B 도 마찬가지로 적용된다.
촬영부(330)는, 객체를 추적하는 트랙렛(Tracklet)을 이용하여 시계열적으로 배열된 영상 프레임 내에서, 객체의 바디를 이루는 적어도 하나의 인체 부위별 비율에 기초하여 감지 및 추적할 때, 시계열적으로 배열된 제 1 영상 프레임에서 검출된 객체의 바디와, 제 2 영상 프레임에서 검출된 객체의 바디를 매칭하기 위하여, 유클라디안(Euclidean) 거리에 이분 매칭(Bipartite Matching) 알고리즘을 적용할 수 있다. 여기서, 촬영부(330)는, 트랙렛이 기 설정된 영상 프레임의 수 동안 객체의 바디와 매칭이 되지 않는 경우, 트랙렛을 배제할 수 있다. 예를 들어, 기 설정된 영상 프레임은 10 영상 프레임일 수 있으나 이에 한정되지는 않는다.
촬영부(330)는, 객체가 적어도 하나의 촬영 단말(400)과 기 설정된 거리 내로 이동하는 경우, 객체의 얼굴을 검출할 수 있다. 그 이유는, 고화질임에도 불구하고, 얼굴을 인식하고 추적하는 것은, 고개돌림, 아래보기 또는 너무 작은 얼굴 등으로 인하여 여전히 어렵다는 것에서부터 출발한다. 이에 따라, 얼굴보다 상대적으로 큰 몸(Body)의 형상을 추적함으로써, 얼굴이 카메라에서 식별가능한 또는 인식가능한 정도까지 커졌을 때 까지를 추적하는 것이다. 예를 들어, 얼굴과 몸의 비율이 1:8이고, 몸통의 너비와 키의 비율이 1:3, 다리와 몸통의 비율이 1:1인 사람이 존재한다고 가정하자. 이렇게 되면, 해당 비율을 가진 사람을 식별할 수 있게 된다. 이때, 해당 비율이나 크기를 가진 사람(객체)이 적절한 거리 내로 진입할 때까지 추적한 후 얼굴을 인식하는 방법을 이용하는 것인데, 사람의 몸은 상대적으로 얼굴보다 매우 크기 때문에 인식에 실패할 확률이 매우 낮아지게 되며, 후보 얼굴의 상대적 좌표가 인식된 몸(바디)을 기반으로, 예를 들어, 몸의 상부면을 기준으로 파악하면, 상대적으로 작은 공간에서 전체 영상 프레임 분석에 비해 빠르고 정확하게 얼굴을 인식할 수 있다. 또, 이러한 방법을 사용할 경우, 프레임 스키핑(Skipping)의 영향을 최소화할 수 있다.
촬영부(330)는, 객체의 얼굴 데이터와, 기 저장된 얼굴 데이터 간 특징벡터에 대한 코사인 유사도를 산출하고, 기 저장된 인공지능 알고리즘 내 다중 분류기로부터 투표(Voting)를 진행한 결과에 기반하여 점수를 부여할 수 있다. 이때, 다중 분류기는, 상술한 CNN 기반 인공지능 알고리즘에서 입력값을 분류함으로써 결과값을 출력하기 위한 장치인데, 각 특징요소를 구분하는 분류기를 조합하거나 복수 또는 다중으로 구성하여 이용하기도 한다. 또, 복수개의 분류기를 조합할 대에는 작은 샘플을 기반으로 학습 분류기를 이용하거나, 복수의 판별식을 이용하는 함수 분류기를 이용하기도 한다. 예를 들어, k-최근접 이웃(K-Nearest Neighbor) 분류기는, 동일한 측정 벡터를 이용하여 입력 패턴을 동일하게 표현하지만, 분류기의 파라미터는 각기 다르게 적용함으로써 분류기의 계수를 서로 구분할 수 있다. 이와 같은 다중분류기는, 각 결과값을 투표방법(Voting method)을 거쳐서 최종 결과값을 출력하게 된다. 이는 각기 다른 분류기를 수행하는 시간 및 투표를 수행하는 시간이 오래 걸리는 반면에, 정확한 구분을 수행할 수 있다.
예를 들어, 입력 데이터(Input)가 입력되는 경우, 벡터화를 수행한 후, 제 1 분류기 내지 제 N 분류기는 입력 데이터를 인식 및 비교를 통하여 유사도에 기반한 점수를 산출할 수 있고, 이에 기반하여 최종적으로 투표를 통하여 결과값을 도출할 수 있다. 결과값이 기 저장된 A의 얼굴과 가장 유사한 프레임은, B 영상 프레임이라고 도출될 수도 있다. 즉, 점수를 도출하는 것이 외에도, 가장 유사한 영상 프레임을 고르는 방식으로 결과값의 형태가 달라질 수도 있다.
이때, 기 설정된 인공지능 알고리즘은, 심층 컨볼루션 신경망(Deep Convolutional Neural Network)일 수 있다. 심층 컨볼루션 신경망을 이용한 안면 인식(Face Verification)은 크게 세 가지 방식을 포함할 수 있는데, 첫 번째는, 멀티 클래스 분류(Multi-class Classification)을 이용하여 얼굴 데이터(Face Representation)를 학습하는 것이다 모델에서 추출한 얼굴 데이터는, 결합 베이지안 메트릭 학습(Joint Bayesian Metric Learning)이나, 서포트 벡터 머신(Support Vector Machine)과 같은 방법을 적용하여 두 입력 쌍 사이의 유사도를 측정할 수 있다. 두 번째 방법은, 인증(Identification) 모델과 식별(Verification) 모델을 조합하여 얼굴 이미지에 최적화된 모델을 만드는 것이다. 이 방법으로는 다른 경우보다 더 보편적인 얼굴 데이터(Face Representation)를 제공하지만, 이 모델들을 조합하여 안면 이미지에 적합하게 최적화하는 경우 인식률이 높아진다. 마지막 방법은 동일 인물의 포지티브 쌍(Positive Pair)와 다른 인물의 네거티브 쌍(Negative Pair)를 이용하여 안면 이미지에 대한 식별 모델을 훈련시키는 것이다. 이 모델은 입력된 두 이미지가 같은지 혹은 다른지를 결정하는 데에 사용되는 특징 데이터(Feature Representation)를 학습하며, 훈련 집합을 멀티 클래스(Multi-Class)로 분류할 필요가 없으므로 훈련 집단의 클래수 수에 대한 의존성을 띄지 않는다. 나열된 방법 이외에도 다양한 방법이 적용될 수 있으며 나열된 것들로 한정되지 않으며, 열거되지 않은 이유로 배제되지 않는다.
촬영부(330)는, 빈도 및 점수에 기반하여 추출된 객체의 얼굴 데이터로 안면 인식을 수행할 수 있고, 파파라치샷을 요청한 사용자를 AR로 표시할 수 있게 된다. 물론, 몸의 비율만을 가지고 특정하는 것도 가능하다. 인공지능 알고리즘을 학습할 때에는 매칭된 얼굴이 가장 많이 인식되고(빈도), 가장 높은 점수를 받은(점수) 영상 프레임이 안면 인식의 이미지 셋으로 선정되게 되며, 안면 인식 과정에서 이용되게 된다.
촬영부(330)에서 사용자를 감지하기 위하여, 즉 하나의 촬영 단말(400)로부터 수집된 영상 프레임 내에 포함된 객체의 바디(Body)를 감지 및 추적하기 이전에, 추적하고자 하는 객체의 적어도 하나의 각도에서 촬영된 얼굴 데이터 및 객체의 바디를 이루는 적어도 하나의 인체 부위 간 비율을 저장할 수 있다. 이때, 얼굴 데이터는 정면을 포함하고, 정면을 기준으로 상하좌우 방향으로 기 설정된 각도만큼 적용된 상태에서 촬영된 이미지 셋(Image Set)일 수 있다. 예를 들어, 적어도 하나의 각도는 45도일 수 있으나 이에 한정되는 것은 아니다. 또, 이미지 셋을 구성하는 사진은 9 개일 수 있으나 역시 이에 한정되는 아님은 자명하다 할 것이다. 물론, 상술한 방법 외에도 파파라치샷을 원한 사용자를 특정하기 위해 식별하는 방법들은 다양한 방법이 이용될 수 있음은 자명하다 할 것이며, 나열된 것들로 한정되지 않고 열거되지 않은 이유로 배제되지 않는다.
한편, 각 스마트폰은 네이티브 애플리케이션으로 카메라 애플리케이션을 내장하고 있고, 사진 또는 영상을 촬영할 때 버튼을 누르는 순간 디폴트 세팅(Setting)으로 촬영 단말(400)의 내장 메모리 또는 외장 메모리에 저장하도록 설정이 되어 있으나, 본 발명의 일 실시예에서는, 촬영 서비스 애플리케이션 내에 촬영을 하게 되어 있으므로 네이티브 애플리케이션을 사용하지 않고, 촬영 단말(400) 내에 저장되지 않도록 설정될 수 있다. 그리고, 촬영부(330)는, 촬영 단말(400)에서 촬영 버튼을 선택한 순간 촬영된 사진이나, 촬영 시작 버튼을 누른 후 종료 버튼을 누른 순간 촬영된 동영상을 이하 업로드부(340)로 업로드하도록 제어할 수 있다.
업로드부(340)는, 적어도 하나의 촬영 단말(400)에서 촬영된 사진 또는 영상을 사용자 단말(100)의 계정에 업로드할 수 있다. 이에 따라, 업로드부(340)는, 적어도 하나의 촬영 단말(400)에서 사진 또는 영상이 자동 또는 수동 저장되지 않도록 제어하면서 업로드받을 수 있다.
저장삭제부(350)는, 업로드부(350)에서 적어도 하나의 촬영 단말(400)에서 촬영된 사진 또는 영상을 사용자 단말(100)의 계정에 업로드한 후, 사용자 단말(100)에서 업로드된 사진 또는 영상을 기 설정된 기간 동안 다운로드하도록 설정할 수 있다. 그리고, 저장삭제부(350)는, 기 설정된 기간이 도과된 후 업로드된 사진 또는 영상을 삭제할 수 있다. 저장삭제부(350)는 업로드부(340)에서 촬영 단말(400)을 제어한다는 뜻이 아니라, 업로드부(340)를 통하여 업로드된 사진을 내려받기, 즉 사용자 단말(100)에서 다운로드받지 않으면, 촬영 서비스 제공 서버(300)의 서버 용량을 확보하기 위하여 서버 내에서 삭제한다는 의미이다.
정산부(360)는, 업로드부(340)에서 적어도 하나의 촬영 단말(400)에서 촬영된 사진 또는 영상을 사용자 단말(100)의 계정에 업로드한 후, 사용자 단말(100)에서 업로드된 사진 또는 영상을 기 설정된 기간 동안 다운로드하도록 설정할 수 있고, 사용자 단말(100)에서 선택 및 다운로드된 사진 또는 영상을 촬영한 적어도 하나의 촬영 단말(400)로 수익분배 및 정산을 수행할 수 있다.
리뷰평가부(370)는, 업로드부(340)에서 적어도 하나의 촬영 단말(400)에서 촬영된 사진 또는 영상을 사용자 단말(100)의 계정에 업로드한 후, 사용자 단말(100)에서 업로드된 사진 또는 영상을 기 설정된 기간 동안 다운로드하도록 설정할 수 있고, 사용자 단말(100)로부터 업로드된 사진 또는 영상에 대한 평점을 수신할 수 있으며, 평점을 기반으로 사진 또는 영상을 업로드한 적어도 하나의 촬영 단말(400)의 평가점수를 업데이트할 수 있다.
모자이크부(380)는, 업로드부(340)에서 적어도 하나의 촬영 단말(400)에서 촬영된 사진 또는 영상을 사용자 단말(100)의 계정에 업로드한 후, 사용자가 아닌 객체가 피사체로 포함된 경우 모자이크처리할 수 있다. 상술한 안면인식을 위한 학습이 완료되는 경우, 사용자를 특정할 수 있고, 촬영된 사진이나 동영상 내에 사용자가 아닌 얼굴을 사용자의 얼굴과 구별할 수 있게 된다. 이때, 초상권 문제가 발생할 수 있기 때문에 사용자의 얼굴이 아닌 얼굴들은 모자이크 처리를 수행하거나 블러(Blur) 처리를 할 수도 있다. 하지만 모자이크 처리를 하게 되면 사진이 자연스럽지 않을 수도 있으므로, 유명인의 얼굴을 합성한, 또는 초상권 문제가 없는 얼굴들을 이용하여 눈코입을 별도로 조합하는 방식으로 가짜얼굴(Fake Face)로 대체할 수도 있다.
식별부(390)는, 수신부(310)에서 사용자 단말(100)로부터 파파라치샷 촬영 요청 이벤트를 수신하기 이전에, 사용자 단말(100)로부터 사용자 프로필을 수신하고, 사용자 프로필 중 사용자를 식별하기 위한 얼굴 데이터 및 신체비율 데이터를 비공개처리한 후 얼굴 데이터로부터 적어도 하나의 특징점을 추출하여 저장할 수 있다. 얼굴 인식은 얼굴 영역 검출과 검출된 영역에서 특징 추출, 및 추출된 특징을 이용한 인식의 3 단계로 구성될 수 있다. 얼굴 영역 검출은 휘도(Luminace), 색차(Chrominance), 얼굴의 기하학적인 외형(Geometry), 및 대칭(Symmetry)에 기반한 접근법, 주성분 분석법(PCA), 신경망(Neural Network) 등을 이용할 수 있고, 특징 추출의 경우 에지(Edge) 정보를 이용한 방법과 주성분 분석법, 템플릿 매칭(Template Matching)을 이용한 방법이 이용될 수 있고, 3차원 얼굴 데이터를 이용한 곡률(Curvature)이나 3차원 PCA를 이용하는 방법 등이 적용가능하다. 인식의 단계에서는 특징점의 데이터를 이용하여 기하학적인 거리를 이용한 DTM, Mahalanobis Distance 등으로 유사도를 계산하여 인식할 수 있다.
표본 기반 영상 분리는, 사용자가 미리 지정한 전경(Foreground)과 후경(Background)의 표본을 기본으로 색공간을 분석하여 영상을 분리하는 방법인데, 전경과 후경이 섞여 있는 부분에 대한 분리를 정교화하기 위해 베이지안을 적용한 Baysian Matting을 이용할 수 있다. 신경망을 적용한 Belief Propagation Matting이 이용될 수도 있으나 이에 한정되지는 않는다. 확산 기반 영상 분리는, 전경과 후경의 대략적인 지정만으로 영상을 분리하는 방향으로 접근하는 방식인데, 전경, 후경의 색상은 각각의 영역 내에서 변화의 폭이 좁다는 가정 하에 영상속의 밝기 변화를 Poisson 방정식을 적용하여 분리한 Poisson Matting이나, 비슷한 논리를 사용한 Random Walks가 이용될 수도 있다. 또한, 전경과 후경의 색상 공간에 선형 모델을 적용하여 전역 공간에서 최저 비용을 계산하여 영역을 분리한 Closed-Form Matting이 이용될 수 있으며, 확산을 기반으로 할 경우 인터페이스가 간편해질 수 있다.
또는, 본 발명의 일 실시예에 따른 식별부(390)는, 검출된 얼굴의 특징점을 초기점으로 하여 확산 기반 영상 분리방식으로 배경을 분리한 다음, Trimap을 생성한 후 분리된 영역에서 신뢰도가 높은 표본을 수집하여 표본 기반 영상 분리를 수행할 수도 있다. 여기서, 얼굴 이미지에서 눈, 코, 입의 구성 요소를 추출하여 CNN(Convolution Neural Network) 알고리즘을 통하여 얼굴을 인식하는 방법인 FCD(Face Component Data)-CNN을 이용할 수 있다. 이때, FCD-CNN은 얼굴을 인식하기 위하여 얼굴 이미지에서 눈, 코, 입과 같은 구성요소를 각각 추출하고 이를 데이터화 할 수 있다. 이는 컨볼루션 연산 의 복잡도를 감소시키고 동시에 이미지에서 배경과 같은 노이즈를 제거되는 효과를 통해 정확도 향상을 이끌어내게 된다. 구성요소 검출 과정의 연산 복잡도를 최소화하기 위하여 피부 검출, 앞선 구성요소의 좌표 활용과 같은 방법이 적용될 수 있고, 좌표를 활용하기 위하여 피부, 눈, 입, 코 순서로 검출할 수 있다.
강제삭제부(391)는, 업로드부(340)에서 적어도 하나의 촬영 단말(400)에서 촬영된 사진 또는 영상을 사용자 단말(100)의 계정에 업로드한 후, 적어도 하나의 촬영 단말(400) 내에 저장된 캐시 데이터까지 강제삭제되도록 제어할 수 있다. 즉, 촬영 단말(400)에 저장되는 것을 방지하는 것을 넘어서, 메모리 상에 캐시로만 로딩되어 이후에 애플리케이션 종료된 경우, 자동으로 캐시까지 오토퍼지(Auto Purge)를 제어할 수 있다.
모바일 기기의 데이터 저장용도인 플래시 메모리는, 하드디스크와 대조적으로 크기가 작고 가벼우면서도 충격에 강하고, 빠른 읽기, 쓰기 속도를 가지고 있는 특징이 있지만, 삭제를 하여도 데이터가 잔존하는 특성이 있기 때문에 개인 정보를 복구하여 인터넷에 유출시킬 수 있다. 이때, 일반적으로 하드디스크상의 데이터는 삭제가 되어도 실제 데이터 영역에는 원본 데이터가 존재한다는 것은 많이 알려져 있는 사실이고 그 이유로 데이터를 완전하게 삭제하기 위해 파일 와이핑(File wiping) 기술을 사용한다. 이를 통하면 삭제된 데이터 영역에 0 또는 1의 난수 데이터를 여러 번 덮어씌워서 원본 데이터를 손상하여 완전히 삭제시킬 수 있다.
하지만 플래시 메모리는 하드웨어적으로 덮어쓰기가 불가능한 특성을 가지고 있다. 플래시 메모리에 파일 와이핑을 수행하더라도 삭제된 파일이 잔존하기 때문에 데이터를 복구할 수 있고, 개인정보는 유출될 가능성이 있기 때문에 플래시 메모리에서 데이터 복구를 방지해야 한다. 다만, 오버헤드 및 특정 FTL에서만 수행되는 제약 조건이 있기 때문에 효율적인 복구 방지 기법이 필요하다.
본 발명의 일 실시예에서는 플래시 메모리에서 블록치환 기법을 적용하여 파일 와이핑이 수행된 후에도 파일 복구가 불가능한 방법을 이용하기로 한다. 블록치환 기법은 플래시 메모리에 저장되는 데이터의 순서를 치환 테이블을 사용하여 저장하는 것을 의미한다. 치환 테이블은 순차적인 순서로 된 페이지를 무작위의 순서로 치환하는 정보를 지닌다. 이때 치환 테이블이 중복이 되면 치환된 결과도 중복이 되기 때문에 치환 테이블 생성이 중요하다. 여기서 씨드(Seed)를 사용할 수 있으며, 이때 논리블록번호(LBN), 물리블록번호(PBN), 삭제횟수(EC), BANK 등의 메타데이타를 이용할 수 있다. 물론, 상술한 방법 이외에도 저장을 방지하기 위하여 가상화 머신(Virtual Machine) 기법을 사용하거나 캐시를 영구히 삭제하는 방법 등을 이용할 수도 있으며 상술한 방법으로 한정되지 않으며 실시예에 따라 달라질 수 있음은 자명하다 할 것이다.
덧붙여서, 본 발명의 일 실시예에 따른 서비스는 이하의 기술들을 조합 또는 부가하여 구현될 수 있다.
<근처에서 찍힌 사진들 탭 추가>
위치정보를 기반으로 하여, 촬영된 장소의 기 설정된 반경 내에서 촬영된 사진들을 하나의 탭 내에서 보여주는 구성이 더 추가될 수 있다. 예를 들어, 3XN 또는 4XN(N은 세로) 등의 형태로 사진들을 정렬할 수 있고, 추천순, 조회순, 거리순, 업데이트 순 등으로 선택적인 필터에 의해 사진을 정렬할 수 있다. 사진은 사용자가 "전체공개"로 설정하거나 공개를 허용한 사진에 한할 수 있다. 공개허용여부는 사진을 다운로드하는 시점에 체크박스를 통해 질의하는 것에 대한 답변으로 설정될 수 있다. 즉, 공개되는 사진은 사용자가 선택하여 사용자 단말(100)에 다운로드한 사진으로 한정될 수 있다. 이로 인하여, 본 발명의 서비스를 이용하는 사용자들은 해당 탭을 통하여, 사용자들이 주로 사진을 찍는 스팟은 어디인지, 사진을 찍을 때 어떠한 구도나 포즈로 찍는지를 알 수 있다.
<스팟 추천 기능>
사용자의 성향에 따라 사진 촬영을 위한 장소 추천 기능일 수 있다. 이때, 장소 추천 기능은 사용자의 동선 이전에 촬영한 사진 개인화 정보를 통해 추천할 수 있다. 또, 사용자가 현재 위치에서 사진을 찍을 수 있는 최적의 장소를 추천받을 수 있다.
<추천 스팟까지 네비게이션 기능>
스팟 추천 기능에 더하여, 추천된 장소까지 현재 위치를 기준으로 예상 거리 및 경로를 표시해줄 수 있다. 너무 멀면 가지 않아도 되고, 만약 갈 수 있다면 그 경로는 어디인지를 정확히 알려주어 헤매지 않도록 한다.
<촬영음 기능>
초상권 보호를 위한 추가적인 장치로, 사진 촬영 시에 셔터음 또는 특유의 촬영 효과음을 발생시킴으로써 초상권 악용사례를 미연에 방지할 수 있도록 한다. 이때, 사진을 요청하지 않은 사용자나, 본 발명의 일 실시예에 따른 애플리케이션을 사용하지 않는 사람이 누군가에게 촬영되었을 때, 그 사실을 즉시 인지하고 촬영 행위를 제지할 수 있다.
<전업 사진가와의 매칭 서비스>
본 발명의 일 실시예에 따른 서비스는, 기본적으로 사용자 간 사진을 찍어주는 서비스이지만, 전업 사진가에게 비용을 지불하고 촬영을 의뢰 하는 서비스도 제공할 수 있다. 전업 사진가가 찍어주는 사진은 신체적 물리적 접촉 없이 언택트로 촬영되는 것이며, 사용자의 요청에 따라 직접 대면하여 촬영 할 수도 있다. 이때, 촬영 도구는 스마트폰 카메라로 한정되지 않으며, 사진가의 개인 촬영장비를 사용 할 수 있다. 사용자는 촬영된 사진을 애플리케이션 내부의 라이브러리 탭 에서 확인할 수 있으며, 메일(Mail) 등으로 받아보는 것을 요청할 수 있다. 결제는 사용자가 의뢰시 결제가 이루어지도록 하고, 이 금액은 사진가에게 즉시 지급되지 않으며, 지급시점은 사용자가 사진을 전달받은 때이다. 계약 미이행 방지를 위하여, 사진의 촬영부터 사진의 수령까지에 소요되는 기간을 별도로 정할 수 있으며, 그 계약이 기간 내 이행되지 않으면 사용자가 결제한 금액은 사용자에게 다시 반환될 수 있다.
본 발명의 일 실시예에 따른 서비스 이용금액으로 일정금액 또는 거래액의 일정비율을 정하여 사용자 및 사진가로부터 수수료를 징수할 수 있으며, 사용자는 이 서비스를 통해서 더 전문적인 사진을 얻을 수 있고, 유명인사처럼 찍힌 파파라치 사진을 얻을 수 있다.
그 외에도, 다양한 광고 플랫폼으로 동작이 가능한데, 사용자들이 사진을 촬영하고 장소를 찾고 추천하는 과정에서 사용자들이 많이 모이게 되면 사용자 위치 기반 및 개인의 정보를 이용한 광고 추천 및 플랫폼으로 동작할 수 있다.
상술한 구성 이외에도 다양한 최신기술들을 이용하여 본 발명의 일 실시예를 더 다양화시킬 수도 있다.
<Computer Vision>
안면인식 기능과 가짜 얼굴 생성 모델을 이용한 가상의 인물로 타인의 얼굴 대체 파파라치샷을 야외에서 촬영하다보면 타인의 얼굴이 담기는 경우가 발생하게 된다. 이때, 타인의 초상 보호를 위해 사용자의 얼굴 사진 데이터를 이용하여 서비스 내에서 사용자를 식별하고 사용자를 제외한 다른 얼굴 데이터들에 대해서는 가상의 인물의 안면을 이용하여 교체할 수 있다. 최근 GAN을 이용한 적대적 학습으로 임의의 인물의 안면 이미지를 생성할 수 있으며 그 성능은 계속 발전하고 있다 따라서 가상의 안면 이미지와 딥 페이크(Deep Fake)에서 사용하듯 사용자의 얼굴에 자연스럽게 합성하는 기술을 이용하여 타인의 얼굴 이미지를 가상의 얼굴 이미지로 대체할 수 있다.
<안면인식 기능을 이용한 사용자 얼굴 식별 후 타인의 얼굴 Blur 처리>
위와 같은 맥락으로 가상의 얼굴 이미지 외에 식별 후 Blur 처리를 하여 사람들의 초상을 보호할 수 있도록 기능을 제공할 수 있다.
<딥러닝 기반 이미지 처리를 이용한 Super Resolution 초해상화 서비스>
딥러닝 기반의 Super Resolution 기능이 발전하고 있다. 휴대폰 사진의 경우 사진기의 화질이 점차 좋아지고 있지만 디스플레이 기술이 좋아짐에 따라 사진에 대한 초해상화 서비스에 대한 수요가 존재한다. 따라서 딥러닝 기반의 이미지 처리 기술을 이용해 초해상화 서비스를 제공하고 서비스 이용에 따른 유료로 과금 가능성까지 고려할 수 있다.
<자연어처리>
BERT 등과 같은 트랜스포머 계열의 언어모델을 활용한 다양한 언어를 가진 사용자간 번역이 가능할 수 있다. 최근 트랜스포머 계열의 언어모델들이 Deep Learning 기반의 자연어 처리 분야에서 인간의 성능을 뛰어넘는 성능을 보이면서 많은 주목을 받고 있다. 이때, Google의 BERT 도 최초 발표시 다국어를 지원하는 언어모델을 함께 발표 하였듯이 다양한 언어를 처리할 수 있는 언어 모델 생성 가능할 것이다. 앞서 생성한 다국어 지원 언어모델을 바탕으로 글로벌 사용자 간 자연스러운 번역 서비스 제공할 수 있다.
<증강현실>
추천 장소에서 AR 을 이용하여 장소 및 포즈를 제안할 수 있다. 이전에 사람들이 촬영한 사진에서 취한 포즈나 동작을 3D 로 모델링하여 AR을 이용해 추천 장소에서 사람들의 다양하고 적절한 포즈를 제안할 수 있다. 또, 해당 장소에서 AR 을 이용한 광고도 가능한데, 본 발명의 일 실시예에 따른 서비스의 경우 사진 촬영을 통해 사람들과 상호작용 하는 애플리케이션으로 사진 촬영화면에서 위치를 기반으로 한 광고 와 위치와 사용자의 기기가 촬영하고 있는 화면을 인식하여 적절한 광고를 노출시키고 광고 플랫폼으로서의 역할도 가능하다.
<블록체인>
영상 및 사진에 대해 블록체인 네트워크를 활용한 원본 및 가짜 사진에 대한 판별이 가능할 수 있다. 최근 이미지와 가짜로 만들어진 영상들로 인해 많은 피해사례가 등장하고 있다. 이에 따라, 본 발명의 일 실시예에 따라 촬영한 사진의 경우 사진에 위변조 확인을 위한 디지털 지문을 생성하고 이를 블록체인 네트워크에 저장하여, 추후에 위변조 사진에 대한 변경 여부를 판별해 위변조를 방지할 수 있다.
이하, 상술한 도 2의 촬영 서비스 제공 서버의 구성에 따른 동작 과정을 도 3 및 도 4를 예로 들어 상세히 설명하기로 한다. 다만, 실시예는 본 발명의 다양한 실시예 중 어느 하나일 뿐, 이에 한정되지 않음은 자명하다 할 것이다.
도 3을 참조하면, (a) 촬영 서비스 제공 서버(300)는 사용자 단말(100)로부터 촬영 요청을 수신하면, 사용자의 위치를 파악하여 사용자의 위치를 기준점으로 기 설정된 반경 이내에 포함된 적어도 하나의 촬영 단말(400)로 파파라치샷의 촬영을 요청하게 된다. 그리고, (b) 촬영 서비스 제공 서버(300)는 적어도 하나의 촬영 단말(400)에서 촬영을 할 때 촬영된 콘텐츠, 즉 사진이나 동영상이 촬영 단말(400)에 저장되거나 캐시라도 남아있지 않도록 하며 바로 촬영 서비스 제공 서버(300)로 업로드될 수 있도록 제어한다. 이때, 적어도 하나의 촬영 단말(400)에서 스파이 애플리케이션이나 별도로 본 발명의 애플리케이션을 무력화시킬 수 있는 애플리케이션을 설치하거나 구동하고 있는 경우에는 촬영 메세지 자체를 받지 못하도록 하고 패널티를 부과하거나 탈퇴처리시키고, 촬영 메세지를 받더라도 촬영은 하지 못하도록 강제제어할 수 있다.
만약 메세지를 받은 후 사용자가 특정된 후에 네이티브 애플리케이션으로 카메라가 구동된 후, 사용자의 얼굴이나 신체 등이 카메라 구동 화면에서 식별된 경우 해당 촬영자에게 패널티를 가하도록 구현할 수 있다. 몰래 촬영을 시도하고 소장하려고 한 고의가 있기 때문이다. (c) 그리고 나서, 촬영 서비스 제공 서버(300)는 적어도 하나의 촬영 단말(400)로부터 사진 또는 동영상이 촬영되어 업로드된 경우, 사용자 단말(100)로 전송하고 사용자 단말(100)에서 선택 및 다운로드받은 경우 촬영한 촬영자에게 기 설정된 수익금을 분배되도록 정산할 수 있다. 그리고, (d) 사용자 단말(100)로부터 촬영물에 대한 평가나 리뷰가 입력된 경우, 촬영 서비스 제공 서버(300)는 촬영자의 계정과 매핑되도록 리뷰나 평점을 업데이트할 수 있다.
추가적으로, 촬영 서비스 제공 서버(300)는 파파라치샷이 많이 찍힌 장소를 히트맵(HeatMap)으로 시각화하여 사람들이 사진을 많은 찍은 장소를 다른 사용자에게 추천할 수도 있다. 동일한 관광지라도 어떻게 어느 방향으로 어느 지점에서 사진을 찍는지에 따라 결과물이 완전히 달라지게 되는데, 이는 사진전문가나 관광가이드가 아니면 잘 알 수 없는 정보이다. 그래서 혼자 여행을 가거나 개별 여행을 가는 경우 동일한 관광지를 가더라도 소위 명당 스팟에서 찍지 않으면 사진 구도가 좋지 않아 좋은 사진이 나오지 않는 경우가 빈번하다. 이에 따라, 어느 장소에서 서서 찍으면 좋은지를 히트맵으로 알려주거나 사용자의 추천을 기반으로 소팅(Sorting)함으로써 본 발명의 일 실시예에 따른 애플리케이션으로 많은 고객이 유입될 수 있도록 할 수 있다.
또, 파파라치 상태를 사용하는 사람들의 분포를 히트맵으로 표시할 수도 있고, 이에 따라 현재 사람이 많은 위치를 추천하여, 실시간으로 어떤 장소가 인기 있는지 사람들에게 정보를 제공할 수도 있다. 히트맵으로 표시할 경우 사진을 찍어 수익을 남기고 싶은 촬영자들은 사람이 많은 곳으로 찾아갈 수도 있고, 이에 따라 촬영자와 사용자의 수를 동일 또는 유사한 비율로 매칭시킬 수도 있다. 또, 사진을 찍고, 찍히는 관계는 1:1 매칭이 아닌, N:N 관계로 사진을 찍고, 주고 받을 수도 있고, 촬영자가 촬영한 사진은, 캐시 데이터까지 모두 삭제되고, 서버에 업로드될 수 있다.
도 4a 내지 도 4i는 본 발명의 일 실시예에 따른 파파라치샷 촬영 서비스 애플리케이션의 구현 화면이다. 도 4a를 보면, 사용자 단말(100)은, 이름과 비밀번호를 입력하여 로그인을 하거나 회원이 아니라면 회원으로 가입을 한 후 이용할 수 있다. 도 4b를 보면, 사용자 단말(100)에서 파파라치샷을 요청하고 주변사람들을 확인할 수 있는 메인 화면이다. 도 4c는 사진 요청을 위한 사용자의 프로필 화면이고, 소개와 메세지를 통하여 사람들에게 보여줄 프로필을 설정할 수 있다. 도 4d와 같이 프로필을 수정할 수도 있는데, 소개, 요청 메세지, 프로필 사진 수정을 할 수 있다. 도 4e는 다른 사람들, 즉 촬영자가 사용자를 식별할 수 있도록 소개사진을 등록할 수 있고, 도 4f는 촬영 단말(400)에서 사용자를 선택했을 때, 프로필과 요청 메세지를 볼 수 있고, Razzi 버튼을 눌러 사진을 촬영할 수 있도록 구현된다. 이때, 도 4g와 같이 Razzi 버튼 상에는 사진을 요청한 사용자의 얼굴 등 프로필 사진이 표시되고, 촬영해줄 사람, 즉 사용자의 사진 버튼(Razzi 버튼)을 누르면 촬영 단말(400)에서는 사진 촬영과 함께 촬영 서비스 제공 서버(300)로 사진이나 동영상이 전송된다. 이때, 도 4h를 보면 사용자 단말(100)은 자신의 계정에 촬영 단말(400)에서 찍은 사진을 볼 수 있고, 도 4i와 같이 사용자가 선택하여 다운로드받은 사진 이외의 사진은 촬영 서비스 제공 서버(300) 상에서 삭제할 수 있다.
이와 같은 도 2 내지 도 4의 상호협력 기반 파파라치샷 촬영 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1을 통해 상호협력 기반 파파라치샷 촬영 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.
도 5는 본 발명의 일 실시예에 따른 도 1의 상호협력 기반 파파라치샷 촬영 서비스 제공 시스템에 포함된 각 구성들 상호 간에 데이터가 송수신되는 과정을 나타낸 도면이다. 이하, 도 5를 통해 각 구성들 상호간에 데이터가 송수신되는 과정의 일 예를 설명할 것이나, 이와 같은 실시예로 본원이 한정 해석되는 것은 아니며, 앞서 설명한 다양한 실시예들에 따라 도 5에 도시된 데이터가 송수신되는 과정이 변경될 수 있음은 기술분야에 속하는 당업자에게 자명하다.
도 5를 참조하면, 촬영 서비스 제공 서버는, 사용자 단말로부터 파파라치샷 촬영 요청 이벤트를 수신한다(S5100).
그리고, 촬영 서비스 제공 서버는, 사용자 단말에서 기 등록한 사용자 프로필 및 원하는 사진 정보를 사용자 단말의 실시간 위치를 기준으로 기 설정된 반경 내에 위치한 적어도 하나의 촬영 단말로 전송한다(S5200).
또, 촬영 서비스 제공 서버는, 적어도 하나의 촬영 단말에서 사용자가 피사체로 포함된 사진 또는 영상을 촬영하고(S5300), 적어도 하나의 촬영 단말에서 촬영된 사진 또는 영상을 사용자 단말의 계정에 업로드한다(S5400).
상술한 단계들(S5100~S5400)간의 순서는 예시일 뿐, 이에 한정되지 않는다. 즉, 상술한 단계들(S5100~S5400)간의 순서는 상호 변동될 수 있으며, 이중 일부 단계들은 동시에 실행되거나 삭제될 수도 있다.
이와 같은 도 5의 상호협력 기반 파파라치샷 촬영 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1 내지 도 4를 통해 상호협력 기반 파파라치샷 촬영 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.
도 5를 통해 설명된 일 실시예에 따른 상호협력 기반 파파라치샷 촬영 서비스 제공 방법은, 컴퓨터에 의해 실행되는 애플리케이션이나 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다.
전술한 본 발명의 일 실시예에 따른 상호협력 기반 파파라치샷 촬영 서비스 제공 방법은, 단말기에 기본적으로 설치된 애플리케이션(이는 단말기에 기본적으로 탑재된 플랫폼이나 운영체제 등에 포함된 프로그램을 포함할 수 있음)에 의해 실행될 수 있고, 사용자가 애플리케이션 스토어 서버, 애플리케이션 또는 해당 서비스와 관련된 웹 서버 등의 애플리케이션 제공 서버를 통해 마스터 단말기에 직접 설치한 애플리케이션(즉, 프로그램)에 의해 실행될 수도 있다. 이러한 의미에서, 전술한 본 발명의 일 실시예에 따른 상호협력 기반 파파라치샷 촬영 서비스 제공 방법은 단말기에 기본적으로 설치되거나 사용자에 의해 직접 설치된 애플리케이션(즉, 프로그램)으로 구현되고 단말기에 등의 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
Claims (10)
- 촬영 서비스 제공 서버에서 실행되는 촬영 서비스 제공 방법에 있어서,
사용자 단말로부터 파파라치샷 촬영 요청 이벤트를 수신하는 단계;
상기 사용자 단말에서 기 등록한 사용자 프로필 및 원하는 사진 정보를 상기 사용자 단말의 실시간 위치를 기준으로 기 설정된 반경 내에 위치한 적어도 하나의 촬영 단말로 전송하는 단계;
상기 적어도 하나의 촬영 단말에서 사용자가 피사체로 포함된 사진 또는 영상을 촬영하는 단계; 및
상기 적어도 하나의 촬영 단말에서 촬영된 사진 또는 영상을 상기 사용자 단말의 계정에 업로드하는 단계;를 포함하며,
상기 적어도 하나의 촬영 단말에서 사용자가 피사체로 포함된 사진 또는 영상을 촬영하는 단계는,
상기 사용자 프로필에 포함된 신체비율에 기반하여 사용자를 식별하고, 식별된 사용자가 피사체로 포함된 상태일 때만 상기 촬영 단말에 내장된 네이티브 애플리케이션 형태의 카메라 애플리케이션을 사용하지 않고, 상기 촬영 단말에 미리 설치된 촬영 서비스 애플리케이션을 통해 상기 사용자가 피사체로 포함된 사진 또는 영상을 촬영하며,
상기 신체비율은,
얼굴, 가슴, 배 및 다리의 길이 및 너비의 비율이며,
상기 적어도 하나의 촬영 단말에서 촬영된 사진 또는 영상을 상기 사용자 단말의 계정에 업로드하는 단계는,
상기 적어도 하나의 촬영 단말에서 사진 또는 영상이 자동 또는 수동 저장되지 않도록 제어하는 단계를 포함하는 것을 특징으로 하는 상호협력 기반 파파라치샷 촬영 서비스 제공 방법.
- 삭제
- 제 1 항에 있어서,
상기 적어도 하나의 촬영 단말에서 촬영된 사진 또는 영상을 상기 사용자 단말의 계정에 업로드하는 단계 이후에,
상기 사용자 단말에서 상기 업로드된 사진 또는 영상을 기 설정된 기간 동안 다운로드하도록 설정하는 단계;
상기 기 설정된 기간이 도과된 후 상기 업로드된 사진 또는 영상을 삭제하는 단계;
를 더 포함하는 것인, 상호협력 기반 파파라치샷 촬영 서비스 제공 방법.
- 제 1 항에 있어서,
상기 적어도 하나의 촬영 단말에서 촬영된 사진 또는 영상을 상기 사용자 단말의 계정에 업로드하는 단계 이후에,
상기 사용자 단말에서 상기 업로드된 사진 또는 영상을 기 설정된 기간 동안 다운로드하도록 설정하는 단계;
상기 사용자 단말에서 선택 및 다운로드된 사진 또는 영상을 촬영한 적어도 하나의 촬영 단말로 수익분배 및 정산을 수행하는 단계;
를 더 포함하는 것인, 상호협력 기반 파파라치샷 촬영 서비스 제공 방법.
- 제 1 항에 있어서,
상기 적어도 하나의 촬영 단말에서 촬영된 사진 또는 영상을 상기 사용자 단말의 계정에 업로드하는 단계 이후에,
상기 사용자 단말에서 상기 업로드된 사진 또는 영상을 기 설정된 기간 동안 다운로드하도록 설정하는 단계;
상기 사용자 단말로부터 상기 업로드된 사진 또는 영상에 대한 평점을 수신하는 단계;
상기 평점을 기반으로 상기 사진 또는 영상을 업로드한 적어도 하나의 촬영 단말의 평가점수를 업데이트하는 단계;
를 더 포함하는 것인, 상호협력 기반 파파라치샷 촬영 서비스 제공 방법.
- 제 1 항에 있어서,
상기 적어도 하나의 촬영 단말에서 사용자가 피사체로 포함된 사진 또는 영상을 촬영하는 단계는,
상기 사용자의 얼굴을 안면인식하거나 상기 사용자의 프로필 정보에 포함된 신체비율에 기반하여 사용자를 식별하는 단계;
상기 식별된 사용자가 피사체로 포함된 경우에만 상기 적어도 하나의 촬영 단말에서 촬영버튼이 활성화되는 단계;
를 포함하는 것인, 상호협력 기반 파파라치샷 촬영 서비스 제공 방법.
- 제 6 항에 있어서,
상기 적어도 하나의 촬영 단말에서 촬영된 사진 또는 영상을 상기 사용자 단말의 계정에 업로드하는 단계 이후에,
상기 사용자가 아닌 객체가 피사체로 포함된 경우 모자이크처리하는 단계;
를 더 포함하는 것인, 상호협력 기반 파파라치샷 촬영 서비스 제공 방법.
- 제 6 항에 있어서,
상기 사용자 단말로부터 파파라치샷 촬영 요청 이벤트를 수신하는 단계 이전에,
상기 사용자 단말로부터 사용자 프로필을 수신하는 단계; 및
상기 사용자 프로필 중 사용자를 식별하기 위한 얼굴 데이터 및 신체비율 데이터를 비공개처리한 후 상기 얼굴 데이터로부터 적어도 하나의 특징점을 추출하여 저장하는 단계;
를 더 포함하는 것인, 상호협력 기반 파파라치샷 촬영 서비스 제공 방법.
- 제 1 항에 있어서,
상기 적어도 하나의 촬영 단말에서 촬영된 사진 또는 영상을 상기 사용자 단말의 계정에 업로드하는 단계 이후에,
상기 적어도 하나의 촬영 단말 내에 저장된 캐시 데이터까지 강제삭제되도록 제어하는 단계;
를 더 포함하는 것인, 상호협력 기반 파파라치샷 촬영 서비스 제공 방법.
- 삭제
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200127366A KR102271673B1 (ko) | 2020-09-29 | 2020-09-29 | 상호협력 기반 파파라치샷 촬영 서비스 제공 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200127366A KR102271673B1 (ko) | 2020-09-29 | 2020-09-29 | 상호협력 기반 파파라치샷 촬영 서비스 제공 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102271673B1 true KR102271673B1 (ko) | 2021-07-02 |
Family
ID=76896813
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200127366A KR102271673B1 (ko) | 2020-09-29 | 2020-09-29 | 상호협력 기반 파파라치샷 촬영 서비스 제공 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102271673B1 (ko) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20050099982A (ko) * | 2003-01-31 | 2005-10-17 | 노키아 코포레이션 | 사진 요청 방법 및 시스템 |
KR20130094616A (ko) * | 2012-02-16 | 2013-08-26 | 엘지전자 주식회사 | 이동 단말기 및 그것을 이용한 카메라 동작 제어방법 |
KR101882442B1 (ko) * | 2011-12-21 | 2018-07-26 | 엘지전자 주식회사 | 이동 단말기, 서버, 이동 단말기 제어 방법 및 서버의 제어 방법 |
KR20190030312A (ko) * | 2017-09-14 | 2019-03-22 | (주)글루버 | 촬영 전문가의 영상 서비스 방법 및 장치 |
KR102123248B1 (ko) * | 2020-01-30 | 2020-06-16 | 김선진 | 프라이버시 보호를 위한 얼굴인식 기반 실시간 영상처리 시스템 |
-
2020
- 2020-09-29 KR KR1020200127366A patent/KR102271673B1/ko active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20050099982A (ko) * | 2003-01-31 | 2005-10-17 | 노키아 코포레이션 | 사진 요청 방법 및 시스템 |
KR101882442B1 (ko) * | 2011-12-21 | 2018-07-26 | 엘지전자 주식회사 | 이동 단말기, 서버, 이동 단말기 제어 방법 및 서버의 제어 방법 |
KR20130094616A (ko) * | 2012-02-16 | 2013-08-26 | 엘지전자 주식회사 | 이동 단말기 및 그것을 이용한 카메라 동작 제어방법 |
KR20190030312A (ko) * | 2017-09-14 | 2019-03-22 | (주)글루버 | 촬영 전문가의 영상 서비스 방법 및 장치 |
KR102123248B1 (ko) * | 2020-01-30 | 2020-06-16 | 김선진 | 프라이버시 보호를 위한 얼굴인식 기반 실시간 영상처리 시스템 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11625441B2 (en) | Method and apparatus for photograph finding | |
US10803496B1 (en) | Systems and methods for implementing machine vision and optical recognition | |
US9996735B2 (en) | Facial recognition | |
JP5673765B2 (ja) | 検索システム、検索方法及びコンピュータプログラム | |
CN111738357B (zh) | 垃圾图片的识别方法、装置及设备 | |
US20110096992A1 (en) | Method, apparatus and computer program product for utilizing real-world affordances of objects in audio-visual media data to determine interactions with the annotations to the objects | |
CN110276366A (zh) | 使用弱监督模型来检测对象 | |
CN110662484A (zh) | 用于全身测量结果提取的系统和方法 | |
US20210027081A1 (en) | Method and device for liveness detection, and storage medium | |
Shu et al. | Cardea: Context-aware visual privacy protection for photo taking and sharing | |
WO2021051547A1 (zh) | 暴力行为检测方法及系统 | |
US11100357B2 (en) | Real-time micro air-quality indexing | |
US12026857B2 (en) | Automatically removing moving objects from video streams | |
Rawat et al. | Context-aware photography learning for smart mobile devices | |
WO2023178930A1 (zh) | 图像识别方法、训练方法、装置、系统及存储介质 | |
Shu et al. | Cardea: Context-aware visual privacy protection from pervasive cameras | |
CN108596070A (zh) | 人物识别方法、装置、存储介质、程序产品和电子设备 | |
Tapia et al. | Sex-classification from cellphones periocular iris images | |
CN110781195A (zh) | 一种兴趣点信息更新的系统、方法和装置 | |
KR102271673B1 (ko) | 상호협력 기반 파파라치샷 촬영 서비스 제공 방법 | |
WO2023273042A1 (zh) | 支付方法、系统、电子设备及存储介质 | |
GB2595260A (en) | Image processing in evidence collection | |
US11281851B2 (en) | Method and system for gathering and tagging content from documents | |
Ahmed | GPark: Vehicle parking management system using smart glass | |
US11558550B1 (en) | Privacy-protecting multi-pass street-view photo-stitch |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
GRNT | Written decision to grant |