KR20170102153A - 네트워크 기반 다중 카메라 영상 처리 및 데이터 전송 방법 및 그 시스템 - Google Patents

네트워크 기반 다중 카메라 영상 처리 및 데이터 전송 방법 및 그 시스템 Download PDF

Info

Publication number
KR20170102153A
KR20170102153A KR1020170094633A KR20170094633A KR20170102153A KR 20170102153 A KR20170102153 A KR 20170102153A KR 1020170094633 A KR1020170094633 A KR 1020170094633A KR 20170094633 A KR20170094633 A KR 20170094633A KR 20170102153 A KR20170102153 A KR 20170102153A
Authority
KR
South Korea
Prior art keywords
image
images
camera
cameras
depth
Prior art date
Application number
KR1020170094633A
Other languages
English (en)
Other versions
KR101779749B1 (ko
Inventor
이호원
최현호
조명진
Original Assignee
한경대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한경대학교 산학협력단 filed Critical 한경대학교 산학협력단
Priority to KR1020170094633A priority Critical patent/KR101779749B1/ko
Publication of KR20170102153A publication Critical patent/KR20170102153A/ko
Application granted granted Critical
Publication of KR101779749B1 publication Critical patent/KR101779749B1/ko

Links

Images

Classifications

    • H04N13/0217
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/218Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
    • H04N13/0242
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)

Abstract

네트워크 기반 다중 카메라 영상 처리 및 데이터 전송 방법 및 그 시스템을 개시한다. 본 발명은 인-네크워크 컴퓨팅(In-Network Computing) 기술을 통하여 사용자에게 실시간 고효율 3D/홀로그램 영상 서비스를 제공하는 것을 그 목적으로 한다. 구체적으로는, 다수의 카메라가 협력하여 3D/홀로그램 이미지를 만드는 경우에 각 카메라가 찍은 정보를 효율적으로 처리 및 전송할 수 있도록 하며, 카메라들 간 프로세싱을 통하여 전송해야 할 정보량을 줄이면서도 최종 3D/홀로그램 이미지의 품질의 손실을 최소화하고자 한다.

Description

네트워크 기반 다중 카메라 영상 처리 및 데이터 전송 방법 및 그 시스템{METHOD AND SYSTEM FOR IMAGE PROCESSING AND DATA TRANSMISSION IN NETWORK CAMERA ENVIRONMENTS}
아래의 설명은 네트워크 기반 다중 카메라 영상 처리 및 전송 기술에 관한 것이다.
모바일 기기의 보급이 기하급수적으로 증가하고 모바일 기기의 기술이 발전함에 따라 이를 활용한 다양한 컨텐츠에 대한 개발 요구 또한 증가되고 있다. 이에 컨텐츠는 사용자에게 보다 다양한 경험을 제공하는 3D/홀로그램 컨텐츠로 발전되어 가고 있으며, 현재 3D/홀로그램 컨텐츠를 제공하는 전자 기기가 보급되면서 점차 그 수요가 증가됨에 따라 사용자에게 보다 나은 3D/홀로그램 컨텐츠를 제공하기 위한 다양한 연구가 요구되고 있다.
특히, 모바일 기기에서 3D/홀로그램 컨텐츠를 무선으로 전송하는 기술에 대한 연구가 필요하다. 기존의 2D 컨텐츠를 배급하는 시스템은 예컨대, 유튜브(You Tube)와 같은 사이트는 2D 컨텐츠를 서버에 저장한 뒤 배포하는 방식을 취하고 있다. 그러나, 3D/홀로그램 컨텐츠를 실시간으로 업로드하고, 서버 등에 저장된 3D/홀로그램 컨텐츠를 모바일 환경에서 재생할 수 있도록 하는 시스템에 대한 개발은 미비한 실정이다.
따라서, 2D 컨텐츠를 3D/홀로그램 컨텐츠로 빠르게 생성시킬 수 있고, 3D/홀로그램 컨텐츠를 무선 네트워크상에서 실시간으로 빠르게 전송할 수 있는 시스템의 개발이 필요하다. 일 예로, 한국 공개특허공보 제2011-0044419호(발명의 명칭: 클라우드 컴퓨팅 기반 영상 제작 제공 시스템, 그의 영상 제작 제공 방법 및 이를 위한 장치)는 클라우드 컴퓨팅에 기반하여 영상을 제작할 수 있도록 하는 영상 제작 제공 장치에 있어서, 영상 제작에 필요한 어플리케이션을 탑재되어 있고, 단말 장치는 네트워크를 통해 서비스 장치에 구비된 영상 제작 리소스를 사용하여 3D 영상을 제작할 수 있으며, 컨텐츠 제공부는 네트워크를 통해 단말장치에 컨텐츠를 제공할 수 있으며, 이때 클라우드 컴퓨팅부는 단말 장치를 위한 리소스를 할당하는 장치를 제안하고 있다.
3D/홀로그램 영상 서비스는 미래 5G 이동통신에 이어서 핵심 서비스들 중 하나이다. 하지만, 기존의 2D 영상과 비교할 때 3D/홀로그램 영상의 전송을 위해서는 많은 양의 무선 자원이 필요하다.
무선 링크 상에서 3D/홀로그램 영상의 전송에 필요한 무선 자원의 양을 줄이는 것은 망의 효율 향상 및 성능 개선을 위한 매우 중요한 연구 이슈이다.
다수의 카메라가 협력하여 3D/홀로그램 이미지를 만들 때 각 카메라가 찍은 정보를 효율적으로 처리 및 전송할 수 있는 네트워크 기반 다중 카메라 영상 처리 및 데이터 전송 시스템 및 방법을 제공한다.
카메라들간 프로세싱을 통하여 전송해야 할 정보량을 줄이면서 동시에 사용자에게 제공되는 최종 3D/홀로그램 이미지의 품질(quality)을 유지할 수 있는 네트워크 기반 다중 카메라 영상 처리 및 데이터 전송 시스템 및 방법을 제공한다.
컴퓨터로 구현되는 방법에 있어서, 공통된 대상에 대하여 2D 이미지를 생성하는 복수의 카메라 중 적어도 하나의 카메라에서, 상기 복수의 카메라에서 생성된 복수의 2D 이미지 간의 공간 상에서의 상관 관계(correlation)를 이용하여 상기 복수의 2D 이미지에 대한 이미지 정보를 압축하는 단계; 및 상기 적어도 하나의 카메라에서, 상기 복수의 2D 이미지에 대한 이미지 정보로서 상기 복수의 2D 이미지 중 일부 이미지 및 2D 이미지 간의 공간 상에서의 상관 관계를 나타내는 제어 정보를 3D 이미지를 생성하기 위한 서비스 서버로 전송하는 단계를 포함하고, 상기 서비스 서버에서는 상기 일부 이미지와 상기 제어 정보를 디코딩 하여 상기 복수의 2D 이미지를 생성한 후 상기 생성된 복수의 2D 이미지로부터 상기 3D 이미지를 생성하는 것을 특징으로 하는 방법을 제공한다.
일 측면에 따르면, 상기 압축하는 단계는, 상기 공간 상에서의 상관 관계를 가진 2D 이미지를 대상으로 여러 값을 기반으로 하나의 대표 값을 결정하는 압축 연산을 사용하여 적어도 하나의 대표 이미지를 결정하는 단계를 포함할 수 있다.
다른 측면에 따르면, 상기 압축하는 단계는, 상기 2D 이미지를 뎁스(depth) 별 영역으로 분할하는 단계; 상기 분할된 이미지들을 상기 뎁스 별로 분류하는 단계; 상기 뎁스 별로 분류된 이미지들 간 상관관계를 기반으로 각 이미지 별로 레퍼런스 이미지와 대비한 쉬프팅 픽셀 값을 계산하는 단계; 상기 쉬프팅 픽셀 값을 기반으로 해당 이미지의 쉬프팅을 수행한 후 해당 뎁스의 이미지들에 대해 압축 연산을 수행하여 하나의 대표 이미지를 결정하는 단계; 및 상기 뎁스 각각에 대하여 상기 대표 이미지를 결정하기 위해 상기 계산하는 단계와 상기 결정하는 단계를 상기 뎁스 별로 반복 수행하는 단계를 포함하고, 상기 전송하는 단계는, 상기 뎁스 별 대표 이미지와 각 뎁스에 해당되는 모든 이미지의 쉬프팅 픽셀 값을 상기 서비스 서버로 전송할 수 있다.
또 다른 측면에 따르면, 상기 서비스 서버에서는 상기 뎁스 별 대표 이미지와 각 뎁스에 해당되는 모든 이미지의 쉬프팅 픽셀 값을 이용하여 상기 복수의 2D 이미지로 디코딩 한 후 상기 디코딩된 복수의 2D 이미지로부터 상기 3D 이미지를 생성할 수 있다.
컴퓨터로 구현되는 시스템에 있어서, 상기 시스템은, 적어도 하나의 프로그램이 로딩된 메모리; 및 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 프로그램의 제어에 따라, 공통된 대상에 대하여 2D 이미지를 생성하는 복수의 카메라 중 적어도 하나의 카메라에서, 상기 복수의 카메라에서 생성된 복수의 2D 이미지 간의 공간 상에서의 상관 관계(correlation)를 이용하여 상기 복수의 2D 이미지에 대한 이미지 정보를 압축하는 과정; 및 상기 적어도 하나의 카메라에서, 상기 복수의 2D 이미지에 대한 이미지 정보로서 상기 복수의 2D 이미지 중 일부 이미지 및 2D 이미지 간의 공간 상에서의 상관 관계를 나타내는 제어 정보를 3D 영상을 생성하기 위한 서비스 서버로 전송하는 과정을 처리하고, 상기 서비스 서버에서는 상기 일부 이미지와 상기 제어 정보를 디코딩 하여 상기 복수의 2D 이미지를 생성한 후 상기 생성된 복수의 2D 이미지로부터 상기 3D 이미지를 생성하는 것을 특징으로 하는 시스템을 제공한다.
본 발명의 실시 예에 따르면, 다수의 카메라가 협력하여 3D/홀로그램 이미지를 만들 때 각 카메라가 찍은 정보를 효율적으로 처리 및 전송함으로써 각각의 카메라에서 촬영된 이미지들을 기지국 또는 허브 단말로 전송하는데 있어서 야기되는 전송 오버헤드(transmission overhead)를 줄이는 동시에 사용자에게 제공되는 최종 3D/홀로그램 영상의 품질을 최대한 보장할 수 있다.
도 1은 본 발명의 일 실시예에 있어서 네트워크 기반 다중 카메라 환경에서 3D 영상을 제공하는 3D 영상 서비스의 일 예를 설명하기 위한 예시 도면이다.
도 2는 네트워크 기반 다중 카메라 환경에서의 기존 데이터 전송 방식을 도시한 예시 도면이다.
도 3은 본 발명의 일 실시예에 있어서 네트워크 기반 다중 카메라 환경 및 데이터 전송 방식의 예를 도시한 예시 도면이다.
도 4는 본 발명의 일 실시예에 있어서 상관 관계가 높은 이미지들의 예를 도시한 예시 도면이다.
도 5는 본 발명의 일 실시예에 있어서 네트워크 기반 다중 카메라 영상 처리 및 데이터 전송 방법의 예를 도시한 순서도이다.
도 6 내지 도 8은 본 발명의 일 실시예에 있어서 복수의 카메라에 대해 한 카메라에서 처리된 대표 이미지 및 제어 정보를 설명하기 위한 예시 도면이다.
도 9는 본 발명의 일 실시예에 있어서 3D 이미지를 생성하는 과정의 일례를 도시한 순서도이다.
도 10은 본 발명의 일 실시예에 있어서 컴퓨터 시스템의 내부 구성의 일례를 설명하기 위한 블록도이다.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
본 실시예들은 네트워크 기반 다중 카메라 영상 처리 및 전송 기술에 관한 것으로, 더욱 상세하게는 유선 또는 무선의 다중 카메라 어레이(wired/wireless multi-camera array)나 무선 라이트 필드 카메라(wireless light-field camera)를 사용하는 경우에 각각의 카메라에서 촬영된 이미지들을 기지국 또는 허브 단말, 서버 컴퓨터 등 상위 시스템으로 전송하는 데에 있어서 야기되는 전송 오버헤드를 줄이는 동시에 원본 3D 영상의 품질을 최대한 보장할 수 있는 영상 처리 및 전송 기술에 관한 것이다.
도 1은 본 발명의 일 실시예에 있어서 네트워크 기반 다중 카메라 환경에서 3D 영상을 제공하는 3D 영상 서비스의 일 예를 설명하기 위한 예시 도면이다.
도 1을 참조하면, 다수의 카메라(10)가 공통된 피사체(20)를 찍어 해당 피사체(20)에 대한 2D 이미지를 3D 영상 서비스를 제공하는 서비스 서버(미도시)로 전송할 수 있고, 서비스 서버에서는 다수의 카메라(10)로부터 수신된 2D 이미지를 이용하여 홀로그램(hologram) 형태와 같은 3D 이미지(30)를 생성하여 사용자들에게 제공할 수 있다. 이때, 카메라 각각은 서비스 서버에서의 3D 이미지(30) 생성을 위해 2D 이미지의 깊이 정보(depthmap information)를 함께 제공하고, 이에 서비스 서버는 다수의 카메라(10)로부터 수신된 깊이 정보를 활용하여 2D 이미지에 대한 3D 이미지(30)를 생성할 수 있다.
도 2는 네트워크 기반 다중 카메라 환경에서의 기존 데이터 전송 방식을 도시한 예시 도면이다.
기존의 경우, 도 2에 도시한 바와 같이 N개의 카메라(10)는 각각 2D 이미지를 생성한 후 각 카메라(10)가 개별적으로 서비스 서버(1)에 2D 이미지를 전송하게 된다. 기존 방식의 경우 서비스 서버(1)는 카메라(10) 각각으로부터 2D 이미지를 수신하기 때문에 카메라(10)의 개수에 대응하여 N개의 2D 이미지와 깊이 정보를 수신하게 된다. 이때, 각 카메라(10)는 피사체에 대한 2D 이미지를 생성하는 것 이외에 카메라(10) 간 사전 프로세싱이 전혀 없다.
기존에는 네트워크 기반 다중 카메라 환경에서 3D 이미지를 생성하기 위해 각 카메라(10)가 개별적으로 데이터를 전송하는 형태로 카메라(10)의 개수(N개) 만큼의 2D 이미지와 깊이 정보를 전송하기 때문에 많은 양의 통신 자원이 필요하다.
본 발명에서는 통신 자원의 양을 줄이고 망의 효율 향상 및 성능 개선을 위해서 공통의 대상에 대하여 서로 다른 카메라들이 찍은 이미지들 간의 공간 상에서의 상관 관계(correlation)를 이용할 수 있다.
도 3은 본 발명의 일 실시예에 있어서 네트워크 기반 다중 카메라 환경 및 데이터 전송 방식의 예를 도시한 예시 도면이다.
도 3의 네트워크 환경은 복수의 전자 기기들(110)과 서비스 서버(100)를 포함하는 예를 나타내고 있다. 이러한 도 3은 발명의 설명을 위한 일례로 전자 기기의 수나 서버의 수가 도 3과 같이 한정되는 것은 아니다.
복수의 전자 기기들(110)은 카메라 기능을 포함하는 컴퓨터 장치로 구현되는 고정형 단말이거나 이동형 단말일 수 있다. 복수의 전자 기기들(110)의 예를 들면, 카메라, 스마트폰(smart phone), 휴대폰, 내비게이션, 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿 PC 등이 있다. 일 예로, 복수의 전자 기기들(110)은 무선 또는 유선 통신 방식을 이용하여 네트워크(미도시)를 통해 서비스 서버(100)와 통신할 수 있다.
복수의 전자 기기들(110)과 서비스 서버(100) 간의 통신 방식은 제한되지 않으며, 네트워크가 포함할 수 있는 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망)을 활용하는 통신 방식뿐만 아니라 기기들간의 근거리 무선 통신 역시 포함될 수 있다. 예를 들어, 네트워크는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.
서비스 서버(100)는 복수의 전자 기기들(110)과 네트워크를 통해 통신하여 명령, 코드, 파일, 컨텐츠, 서비스 등을 제공하는 컴퓨터 장치 또는 복수의 컴퓨터 장치들로 구현될 수 있다.
복수의 전자 기기들(110)은 2D 이미지를 생성하고 전송하는 카메라 기능을 포함하는 컴퓨터 장치로, 이하에서는 '카메라'로 통칭하기로 한다. 도 3에 도시한 바와 같이, 복수의 카메라들(110)은 인-네크워크 컴퓨테이션(In-Network Computation) 개념으로 각 카메라 간에 2D 이미지 송수신 및 처리 과정을 수행할 수 있다. 다시 말해, 각 카메라(110) 간 사전 프로세싱으로서 데이터 전송 및 사전 처리가 존재한다.
본 발명에서는 복수의 카메라(110) 중 하나의 카메라에서 처리된 2D 이미지 및 제어 정보를 서비스 서버(100)로 전송할 수 있다. 다시 말해, N개의 카메라(110)에 대하여 하나의 카메라에서 사전 처리를 통해 x개의 2D 이미지와 제어 정보를 전송할 수 있다. 이때, x는 고려하는 뎁스 레벨의 개수, 또는 상관 이미지의 개수를 의미할 수 있다. 그리고, 제어 정보는 이미지들 간의 공간 상에서의 상관 관계를 나타내는 정보를 포함할 수 있다.
복수의 카메라(110) 중 하나의 카메라가 다른 카메라의 2D 이미지와 깊이 정보를 모두 수신하여 한번에 사전 처리를 수행하거나, 여러 카메라에서 분산적으로 사전 처리를 수행하는 것 또한 가능하다.
복수의 카메라(110)에 포함된 모든 카메라가 x개의 2D 이미지와 제어 정보를 전송하는 레퍼런스 카메라(reference camera)가 될 수 있다. 레퍼런스 카메라는 통신 환경이나 에너지 효율 등 다양한 인자를 고려하여 결정될 수 있으며, 예를 들어 복수의 카메라(110) 중 통신 링크가 가장 좋은 카메라를 레퍼런스 카메라로 결정할 수 있다.
서비스 서버(100)에서는 N개의 카메라(110)에 대해 레퍼런스 카메라로부터 수신된 x개의 2D 이미지와 제어 정보를 디코딩 함으로써 N개의 개별 2D 이미지를 생성할 수 있고 N개의 2D 이미지로부터 3D 이미지를 생성할 수 있다.
따라서, 본 발명에서는 다수의 카메라가 협력하여 3D/홀로그램 이미지를 만들 때 카메라 간 사전 처리를 통해 각 카메라에서 찍은 정보를 압축함으로써 3D/홀로그램 이미지의 생성을 위해 전송해야 할 정보량을 현저히 줄일 수 있다.
도 4에 도시한 바와 같이, 하나의 공통된 대상에 대해서 각 카메라(camera1, camera2)가 찍은 2D 이미지들(401, 402) 간에는 공간 상에서의 상관 관계가 존재한다. 이때, 2D 이미지들(401, 402)은 이미지에 포함된 각 객체에 대해 뎁스 레벨(depth level) 별로 공간 상에서의 상관 관계가 높게 나타난다.
본 발명에서는 각 카메라에서 생성된 2D 이미지를 개별적으로 전송하는 방식이 아닌, 상관 관계가 높은 이미지 그룹 별로(예컨대, 뎁스 레벨 별로) 압축 연산을 통하여 하나의 대표 값을 결정하고 이를 전송하는 방식을 적용한다. 압축 연산의 예로는 여러 값 중 최소 값을 대표 값으로 선택하는 min 연산, 여러 값 중 최대 값을 대표 값으로 선택하는 max 연산, 여러 값의 평균 값을 대표 값으로 선택하는 average 연산(평균을 내는 요소들의 각각의 비율을 같게 해서 평균을 내는 방식, 평균을 내는 요소들의 각각의 비율을 다르게 해서 평균을 내는 방식 등) 등을 이용할 수 있으며, 이러한 연산으로만 한정되는 것은 아니며, 여러 값을 기반으로 하나의 대표 값을 결정하는 연산이라면 어떠한 것도 모두 적용 가능하다.
도 5는 본 발명의 일 실시예에 있어서 네트워크 기반 다중 카메라 영상 처리 및 데이터 전송 방법을 도시한 순서도이다. 네트워크 기반 다중 카메라 영상 처리 및 데이터 전송 방법은 카메라 기능을 포함하는 전자 기기(이하, '카메라'라 칭함)에 의해 각각의 단계가 수행될 수 있다. 이때, 네트워크 기반 다중 카메라 영상 처리 및 데이터 전송 방법은 카메라 간 사전 처리 과정에 해당되며, 공통된 대상을 촬영함으로써 공간 상에서의 상관 관계를 가진 이미지들을 대상으로 한다. 그리고, 네트워크 기반 다중 카메라 영상 처리 및 데이터 전송 방법은 레퍼런스 카메라로 지정된 카메라에서 수행되는 것으로 설명하나, 이에 한정되는 것은 아니며 둘 이상의 카메라에서 분산적으로 수행되는 것 또한 가능하다.
단계(S1)에서 카메라는 카메라에서 촬영되거나 다른 카메라에서 수신된 2D 이미지를 뎁스 별 영역으로 각각 분할하여 추출할 수 있다. 도 6에 도시한 바와 같이, 2D 이미지에 대해 2D 이미지에 포함된 객체를 추출함으로써 객체 별 이미지(602~605)를 분할할 수 있다.
단계(S2)에서 카메라는 2D 이미지에서 추출된 이미지들을 뎁스 별로 분류할 수 있다.
단계(S3)에서 카메라는 뎁스 별로 분류된 이미지들 간 상관관계를 기반으로 해당 뎁스의 각 이미지 별로 레퍼런스 이미지(즉, 레퍼런스 카메라에서 촬영된 이미지)와 대비한 쉬프팅 픽셀 값을 계산할 수 있다. 이때, 이미지 간 객체 위치를 비교함으로써 쉬프팅 픽셀 값을 계산할 수 있다. 다시 말해, 객체 각각에 대해 레퍼런스 카메라를 기준으로 모든 카메라들의 쉬프팅 픽셀 값을 계산할 수 있다.
쉬프팅 픽셀 값 {x,y}는 {수직 쉬프팅 픽셀 수(the number of vertically shifting pixels), 수평 쉬프팅 픽셀 수(the number of horizontally shifting pixels)}와 같이 나타낼 수 있다. 이때, 쉬프팅 픽셀 수는 {(영상의 x축 해상도 × 카메라 초점 길이 × 카메라 간의 간격) / (카메라의 이미지 센서 x축 크기 × 카메라의 이미지 센서 깊이)}와 같이 정의될 수 있다.
단계(S4)에서 카메라는 단계(S3)에서 계산된 쉬프팅 픽셀 값을 기반으로 해당 이미지의 쉬프팅을 수행한 후 해당 뎁스의 이미지들에 대해 정해진 압축 연산을 수행하여 하나의 대표 이미지를 결정할 수 있다. 이는 카메라들 간에 상관 관계가 큰 이미지 정보를 연산하여 압축하기 위한 것으로, 카메라들 간에 이미지 정보를 일정 경로를 따라 취합하게 된다. 예컨대, 상관 관계가 높은 이미지들에 대해 min 함수, max 함수, average 함수, weighted average 함수 중 하나가 적용된 압축 연산을 이용하여 하나의 대표 값으로 취합할 수 있다. 이때, 상관 관계가 높은 이미지들을 취합 시 사용하는 연산 방식에 따라 취합 경로가 결정될 수 있다.
단계(S5)에서 카메라는 뎁스 각각에 대하여 상기한 과정(S3~S4)을 반복 수행할 수 있다. 상기한 과정(S3~S4)은 각 뎁스 별로 독립적으로 수행될 수 있으며, 이를 통해 각각의 뎁스에 대하여 하나의 대표 이미지와 각 뎁스에 해당되는 모든 이미지의 쉬프팅 픽셀 값들이 도출될 수 있다. 카메라 어레이 환경에서 객체 쉬프팅을 수행한 후 이미지 취합을 위한 연산을 반복적으로 계속 적용할 수 있다. 즉, 모든 이미지가 하나의 이미지로 계산될 때까지 객체 쉬프팅과 취합 연산을 반복 수행할 수 있다. 다만, RGB에 대해서 객체 쉬프팅과 취합 연산을 각각 적용할 수 있다. 각 카메라 센서들의 CCD(charged coupled device) 내의 픽셀 별로 생성되는 정보를 정의할 수 있으며, 이때 RGB 각각을 8bits로 하면 1픽셀 당 24bits의 정보가 생성될 수 있고(예를 들어, (255,255,255) 또는 #FF00F0 (hexadecimal) 등), RGB 각각을 16bits로 하면 1픽셀 당 48bits의 정보가 생성될 수 있다.
단계(S6)에서 카메라는 뎁스 별로 상기한 과정(S3~S4)이 반복됨에 따라 도출된 각 뎁스 별 하나의 대표 이미지와 각 뎁스에 해당되는 이미지 별 쉬프팅 픽셀 값을 서비스 서버(100) 측 수신단으로 전송할 수 있다. 다시 말해, 카메라는 상관 관계가 높은 이미지들(뎁스 레벨 별 이미지들) 중에서 대표 값 연산(즉, 취합 연산)을 통해 결정된 대표 이미지(2D 이미지)와 모든 카메라의 쉬프팅 픽셀 수를 서비스 서버(100) 측 수신단으로 전송할 수 있다. 이때, 대표 이미지는 N개의 카메라에 대하여 객체 추출을 통해 고려하는 뎁스 레벨의 개수에 해당되는 x개의 2D 이미지를 포함할 수 있다. 일 예로, 카메라는 뎁스 레벨 별 대표 이미지와 모든 카메라의 쉬프팅 픽셀 수(# of shifting pixels for all cameras)에 대한 정보를 카메라들 간 데이터 전달에 필요한 자원 오버헤드에 대한 정보와 함께 서비스 서버(100)의 수신단으로 전송할 수 있다. 카메라들 간 데이터 전달에 필요한 자원 오버헤드에 대한 정보는 유선 카메라 어레이의 경우 존재하지 않고 무선인 경우에만 존재한다. 다른 예로, 카메라는 뎁스 레벨 별 대표 이미지와 모든 카메라의 쉬프팅 픽셀 수에 대한 평균 값(average # of shifting pixels for all cameras)을 카메라들 간 데이터 전달에 필요한 자원 오버헤드에 대한 정보와 함께 서비스 서버(100)의 수신단으로 전송할 수 있다.
도 7을 참조하면, 공통된 대상에 대해 2D 이미지를 생성하는 N개의 카메라(camera1, .. cameraN)에 대해 상관 관계가 높은 객체 이미지들(702~705) 중에서 min 연산, max 연산, average 연산, weighted average 연산 등을 통해 뎁스 별로 하나의 대표 이미지(702'~705')를 결정하고 뎁스 별 각 대표 이미지(702'~705')와 함께 모든 카메라에 대한 이미지 별 쉬프팅 픽셀 값을 서비스 서버(100)로 전송할 수 있다.
일 예로, 10개의 카메라를 통해 촬영된 10개의 2D 이미지에 대해 레퍼런스 카메라에서 처리된 2D 이미지의 뎁스 별 쉬프팅 픽셀 값이 도 8과 같다고 할 때 객체 'H'에 대한 쉬프팅 픽셀 수의 평균 값 10.11, 객체 'K'에 대한 쉬프팅 픽셀 수의 평균 값 7.89, 객체 'N'에 대한 쉬프팅 픽셀 수의 평균 값 6.44, 객체 'U'에 대한 쉬프팅 픽셀 수의 평균 값 5.44를 10개의 2D 이미지에 대한 관련 제어 정보로서 서비스 서버(100)로 전송될 수 있다.
요컨대, 본 발명에서 뎁스 별로 하나의 대표 이미지를 생성(결정)하는 방식에는 크게 두 가지 방식이 있을 수 있다.
하나는, 복수의 카메라 중 하나의 카메라를 레퍼런스 카메라로 고정하고 레퍼런스 카메라에서 촬영된 이미지를 기준으로 나머지 모든 카메라에서 촬영된 이미지의 쉬프팅 픽셀 값을 찾아서 연산을 수행하는 방식이다.
다른 하나는, 복수의 카메라 중 인접한 두 카메라 간에 계속적으로 연산을 수행해 나가는 방식이다. 이 경우, 레퍼런스 카메라가 계속 바뀌게 된다. 예를 들어, 1번 카메라와 2번 카메라를 대상으로 연산을 하고 2번 카메라가 레퍼런스 카메라라고 할 때, 1번 카메라에서 촬영된 이미지 1과 2번 카메라에서 촬영된 이미지 2에서 뎁스 별 영역을 추출하고 2번 카메라를 기준으로 1번 카메라의 이미지 영역들의 쉬프팅 픽셀을 계산한다. 이때 계산된 결과를 기반으로 1번 카메라와 2번 카메라에 대한 연산 결과에 해당되는 이미지 2'를 얻는다. 다음으로, 이미지 2'와 3번 카메라에서 촬영된 이미지 3을 연산하는 경우 3번 카메라가 레퍼런스 카메라가 되고, 이에 이미지 3'가 생성될 수 있다. 이후, 이미지 3'는 4번 카메라와 연산을 수행하는데 이용된다. 이미지에서 추출된 뎁스 영역이 x개라면 상기한 과정이 x번 수행되고, 이를 통해 총 x개의 이미지를 얻게 되는 것이다.
도 9는 본 발명의 일 실시예에 있어서 3D 이미지를 생성하는 과정의 일례를 도시한 순서도이다. 도 9의 3D 이미지 생성 방법은 서비스 서버(100)에 의해 각각의 단계가 수행될 수 있다.
단계(S7)에서 서비스 서버(100)는 복수의 카메라를 통해 촬영된 2D 이미지에 대한 3D 이미지 요청으로서 레퍼런스 카메라로부터 각 뎁스 별 하나의 대표 이미지와 각 뎁스에 해당되는 이미지 별 쉬프팅 픽셀 값을 수신할 수 있다.
단계(S8)에서 서비스 서버(100)는 뎁스 각각의 대표 이미지와 각 이미지 별 쉬프팅 픽셀 값을 기반으로 역쉬프팅(unshifting)을 수행하여 복수의 카메라에서 촬영된 원본 이미지와 동일한 개수의 이미지를 생성할 수 있다. 다시 말해, 서비스 서버(100)는 뎁스 각각에 대해 대표 이미지에 이미지 별 쉬프팅 픽셀 값을 각각 적용함으로써 원본과 동일한 개수의 이미지를 생성할 수 있다. 따라서, 서비스 서버(100)는 복수의 카메라에 대해 레퍼런스 카메라로부터 수신된 x개의 대표 이미지와 제어 정보(모든 카메라의 쉬프팅 픽셀 수)를 이용하여 카메라 개수에 대응되는 N개의 원래 2D 이미지로 디코딩 할 수 있다.
단계(S9)에서 서비스 서버(100)는 단계(S8)에서 생성된 이미지들, 즉 N개의 2D 이미지를 이용하여 홀로그램 이미지와 같은 3D 이미지를 생성할 수 있다. 이때, 서비스 서버(100)는 대표 이미지에 대하여 각 카메라의 쉬프팅 픽셀 수에 따라 언쉬프트 하는 방식을 적용하여 원래 이미지로 디코딩 한 후 이들 이미지들을 기반으로 3D 이미지를 생성할 수 있고, 이를 3D 이미지 요청에 대한 응답으로 제공할 수 있다.
이와 같이, 다수의 카메라가 협력하여 카메라들 간의 프로세싱을 통하여 서비스 서버(100)로 전송해야 할 정보량을 현저히 줄이면서 원본 이미지의 품질을 최대한 보장할 수 있다.
도 10은 본 발명의 일 실시예에 있어서, 컴퓨터 시스템의 내부 구성의 일례를 설명하기 위한 블록도이다.
도 10을 참조하면, 컴퓨터 시스템(1000)은 적어도 하나의 프로세서(processor)(1010), 메모리(memory)(1020), 주변장치 인터페이스(peripheral interface)(1030), 입/출력 서브시스템(I/O subsystem)(1040), 전력 회로(1050) 및 통신 회로(1060)를 포함할 수 있다. 이때, 컴퓨터 시스템(1000)은 도 1을 통해 설명한 카메라 기능을 포함하는 전자 기기, 혹은 서비스 서버에 해당될 수 있다.
메모리(1020)는, 일례로 고속 랜덤 액세스 메모리(high-speed random access memory), 자기 디스크, 에스램(SRAM), 디램(DRAM), 롬(ROM), 플래시 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(1020)는 컴퓨터 시스템(1000)의 동작에 필요한 소프트웨어 모듈, 명령어 집합 또는 그밖에 다양한 데이터를 포함할 수 있다. 이때, 프로세서(1010)나 주변장치 인터페이스(1030) 등의 다른 컴포넌트에서 메모리(1020)에 액세스하는 것은 프로세서(1010)에 의해 제어될 수 있다.
주변장치 인터페이스(1030)는 컴퓨터 시스템(1000)의 입력 및/또는 출력 주변장치를 프로세서(1010) 및 메모리(1020)에 결합시킬 수 있다. 프로세서(1010)는 메모리(1020)에 저장된 소프트웨어 모듈 또는 명령어 집합을 실행하여 컴퓨터 시스템(1000)을 위한 다양한 기능을 수행하고 데이터를 처리할 수 있다.
입/출력 서브시스템(1040)은 다양한 입/출력 주변장치들을 주변장치 인터페이스(1030)에 결합시킬 수 있다. 예를 들어, 입/출력 서브시스템(1040)은 카메라, 모니터나 키보드, 마우스, 프린터 또는 필요에 따라 터치스크린이나 센서 등의 주변장치를 주변장치 인터페이스(1030)에 결합시키기 위한 컨트롤러를 포함할 수 있다. 다른 측면에 따르면, 입/출력 주변장치들은 입/출력 서브시스템(1040)을 거치지 않고 주변장치 인터페이스(1030)에 결합될 수도 있다.
전력 회로(1050)는 단말기의 컴포넌트의 전부 또는 일부로 전력을 공급할 수 있다. 예를 들어 전력 회로(1050)는 전력 관리 시스템, 배터리나 교류(AC) 등과 같은 하나 이상의 전원, 충전 시스템, 전력 실패 감지 회로(power failure detection circuit), 전력 변환기나 인버터, 전력 상태 표시자 또는 전력 생성, 관리, 분배를 위한 임의의 다른 컴포넌트들을 포함할 수 있다.
통신 회로(1060)는 적어도 하나의 외부 포트를 이용하여 다른 컴퓨터 시스템과 통신을 가능하게 할 수 있다. 또는 상술한 바와 같이 필요에 따라 통신 회로(1060)는 RF 회로를 포함하여 전자기 신호(electromagnetic signal)라고도 알려진 RF 신호를 송수신함으로써, 다른 컴퓨터 시스템과 통신을 가능하게 할 수도 있다.
이러한 도 10의 실시예는, 컴퓨터 시스템(1000)의 일례일 뿐이고, 컴퓨터 시스템(1000)은 도 10에 도시된 일부 컴포넌트가 생략되거나, 도 10에 도시되지 않은 추가의 컴포넌트를 더 구비하거나, 2개 이상의 컴포넌트를 결합시키는 구성 또는 배치를 가질 수 있다. 예를 들어, 모바일 환경의 통신 단말을 위한 컴퓨터 시스템은 도 10에 도시된 컴포넌트들 외에도, 터치스크린이나 센서 등을 더 포함할 수도 있으며, 통신 회로(1060)에 다양한 통신 방식(WiFi, 3G, LTE, Bluetooth, NFC, Zigbee 등)의 RF 통신을 위한 회로가 포함될 수도 있다. 컴퓨터 시스템(1000)에 포함 가능한 컴포넌트들은 하나 이상의 신호 처리 또는 어플리케이션에 특화된 집적 회로를 포함하는 하드웨어, 소프트웨어, 또는 하드웨어 및 소프트웨어 양자의 조합으로 구현될 수 있다.
이와 같이, 본 발명의 실시예들에 따르면, 다수의 카메라가 협력하여 3D/홀로그램 이미지를 만들 때 각 카메라가 찍은 정보를 효율적으로 처리 및 전송함으로써 각각의 카메라에서 촬영된 이미지들을 기지국 또는 허브 단말로 전송하는데 있어서 야기되는 전송 오버헤드(transmission overhead)를 줄이는 동시에 사용자에게 제공되는 최종 영상의 품질을 최대한 보장할 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (5)

  1. 컴퓨터로 구현되는 방법에 있어서,
    공통된 대상에 대하여 2D 이미지를 생성하는 복수의 카메라 중 적어도 하나의 카메라에서, 상기 복수의 카메라에서 생성된 복수의 2D 이미지 간의 공간 상에서의 상관 관계(correlation)를 이용하여 상기 복수의 2D 이미지에 대한 이미지 정보를 압축하는 단계; 및
    상기 적어도 하나의 카메라에서, 상기 복수의 2D 이미지에 대한 이미지 정보로서 상기 복수의 2D 이미지 중 일부 이미지 및 2D 이미지 간의 공간 상에서의 상관 관계를 나타내는 제어 정보를 3D 이미지를 생성하기 위한 서비스 서버로 전송하는 단계
    를 포함하고,
    상기 서비스 서버에서는 상기 일부 이미지와 상기 제어 정보를 디코딩 하여 상기 복수의 2D 이미지를 생성한 후 상기 생성된 복수의 2D 이미지로부터 상기 3D 이미지를 생성하는 것
    을 특징으로 하는 방법.
  2. 제1항에 있어서,
    상기 압축하는 단계는,
    상기 공간 상에서의 상관 관계를 가진 2D 이미지를 대상으로 여러 값을 기반으로 하나의 대표 값을 결정하는 압축 연산을 사용하여 적어도 하나의 대표 이미지를 결정하는 단계
    를 포함하는 방법.
  3. 제1항에 있어서,
    상기 압축하는 단계는,
    상기 2D 이미지를 뎁스(depth) 별 영역으로 분할하는 단계;
    상기 분할된 이미지들을 상기 뎁스 별로 분류하는 단계;
    상기 뎁스 별로 분류된 이미지들 간 상관관계를 기반으로 각 이미지 별로 레퍼런스 이미지와 대비한 쉬프팅 픽셀 값을 계산하는 단계;
    상기 쉬프팅 픽셀 값을 기반으로 해당 이미지의 쉬프팅을 수행한 후 해당 뎁스의 이미지들에 대해 압축 연산을 수행하여 하나의 대표 이미지를 결정하는 단계; 및
    상기 뎁스 각각에 대하여 상기 대표 이미지를 결정하기 위해 상기 계산하는 단계와 상기 결정하는 단계를 상기 뎁스 별로 반복 수행하는 단계
    를 포함하고,
    상기 전송하는 단계는,
    상기 뎁스 별 대표 이미지와 각 뎁스에 해당되는 모든 이미지의 쉬프팅 픽셀 값을 상기 서비스 서버로 전송하는 것
    을 특징으로 하는 방법.
  4. 제3항에 있어서,
    상기 서비스 서버에서는 상기 뎁스 별 대표 이미지와 각 뎁스에 해당되는 모든 이미지의 쉬프팅 픽셀 값을 이용하여 상기 복수의 2D 이미지로 디코딩 한 후 상기 디코딩된 복수의 2D 이미지로부터 상기 3D 이미지를 생성하는 것
    을 특징으로 하는 방법.
  5. 컴퓨터로 구현되는 시스템에 있어서,
    상기 시스템은,
    적어도 하나의 프로그램이 로딩된 메모리; 및
    적어도 하나의 프로세서
    를 포함하고,
    상기 적어도 하나의 프로세서는, 상기 프로그램의 제어에 따라,
    공통된 대상에 대하여 2D 이미지를 생성하는 복수의 카메라 중 적어도 하나의 카메라에서, 상기 복수의 카메라에서 생성된 복수의 2D 이미지 간의 공간 상에서의 상관 관계(correlation)를 이용하여 상기 복수의 2D 이미지에 대한 이미지 정보를 압축하는 과정; 및
    상기 적어도 하나의 카메라에서, 상기 복수의 2D 이미지에 대한 이미지 정보로서 상기 복수의 2D 이미지 중 일부 이미지 및 2D 이미지 간의 공간 상에서의 상관 관계를 나타내는 제어 정보를 3D 영상을 생성하기 위한 서비스 서버로 전송하는 과정
    을 처리하고,
    상기 서비스 서버에서는 상기 일부 이미지와 상기 제어 정보를 디코딩 하여 상기 복수의 2D 이미지를 생성한 후 상기 생성된 복수의 2D 이미지로부터 상기 3D 이미지를 생성하는 것
    을 특징으로 하는 시스템.
KR1020170094633A 2017-07-26 2017-07-26 네트워크 기반 다중 카메라 영상 처리 및 데이터 전송 방법 및 그 시스템 KR101779749B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170094633A KR101779749B1 (ko) 2017-07-26 2017-07-26 네트워크 기반 다중 카메라 영상 처리 및 데이터 전송 방법 및 그 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170094633A KR101779749B1 (ko) 2017-07-26 2017-07-26 네트워크 기반 다중 카메라 영상 처리 및 데이터 전송 방법 및 그 시스템

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020160024155A Division KR101764531B1 (ko) 2016-02-29 2016-02-29 네트워크 기반 다중 카메라 영상 처리 및 데이터 전송 방법 및 그 시스템

Publications (2)

Publication Number Publication Date
KR20170102153A true KR20170102153A (ko) 2017-09-07
KR101779749B1 KR101779749B1 (ko) 2017-10-11

Family

ID=59925718

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170094633A KR101779749B1 (ko) 2017-07-26 2017-07-26 네트워크 기반 다중 카메라 영상 처리 및 데이터 전송 방법 및 그 시스템

Country Status (1)

Country Link
KR (1) KR101779749B1 (ko)

Also Published As

Publication number Publication date
KR101779749B1 (ko) 2017-10-11

Similar Documents

Publication Publication Date Title
EP3288271B1 (en) Method and apparatus for transmitting and receiving image data for virtual-reality streaming service
KR20200100558A (ko) 이미지 처리 방법 및 장치, 전자 디바이스 및 컴퓨터 판독 가능 저장 매체
Gargees et al. Incident-supporting visual cloud computing utilizing software-defined networking
Hsu et al. FallCare+: An IoT surveillance system for fall detection
Perala et al. Fog computing and efficient resource management in the era of Internet-of-Video Things (IoVT)
Younis et al. Latency-aware hybrid edge cloud framework for mobile augmented reality applications
JP2016071874A (ja) 視差画像生成方法及び視差画像生成装置
KR102210693B1 (ko) 경계 비트맵을 이용하는 이미지 분류 개선 기법
CN111062339A (zh) 基于区块链的人脸识别方法、装置、设备和存储介质
WO2024056030A1 (zh) 一种图像深度估计方法、装置、电子设备及存储介质
US10212291B2 (en) System, method, and non-transitory computer readable storage medium for image recognition based on convolutional neural networks
KR101764531B1 (ko) 네트워크 기반 다중 카메라 영상 처리 및 데이터 전송 방법 및 그 시스템
KR101779749B1 (ko) 네트워크 기반 다중 카메라 영상 처리 및 데이터 전송 방법 및 그 시스템
CN114449346B (zh) 视频处理方法、装置、设备以及存储介质
Wu et al. Hybrid mobile vision for emerging applications
Galanis et al. Edge computing and efficient resource management for integration of video devices in smart grid deployments
Pandey et al. Real-time in-network image compression via distributed dictionary learning
Huang et al. EdgeBooster: Edge-assisted real-time image segmentation for the mobile web in WoT
US20220027623A1 (en) Object Location Determination in Frames of a Video Stream
CN113168503A (zh) 用于实时对象检测和跟踪的分布式计算
CN116597098B (zh) 三维重建方法、装置、电子设备和计算机可读存储介质
WO2023207360A1 (zh) 图像分割方法、装置、电子设备及存储介质
KR101323886B1 (ko) 분산처리 기반의 물체 추적장치 및 추적방법
WO2023081009A1 (en) State summarization for binary voxel grid coding
KR102288700B1 (ko) 사용자 장치의 메모리 저장 정보를 이용하는 무선 통신 방법 및 장치

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant