KR101306671B1 - 정보 처리 장치, 정보 처리 방법, 및 컴퓨터 판독 가능 기억 매체 - Google Patents

정보 처리 장치, 정보 처리 방법, 및 컴퓨터 판독 가능 기억 매체 Download PDF

Info

Publication number
KR101306671B1
KR101306671B1 KR1020120034232A KR20120034232A KR101306671B1 KR 101306671 B1 KR101306671 B1 KR 101306671B1 KR 1020120034232 A KR1020120034232 A KR 1020120034232A KR 20120034232 A KR20120034232 A KR 20120034232A KR 101306671 B1 KR101306671 B1 KR 101306671B1
Authority
KR
South Korea
Prior art keywords
image
stereoscopic image
image data
terminal
user
Prior art date
Application number
KR1020120034232A
Other languages
English (en)
Other versions
KR20120125158A (ko
Inventor
도시로 오비츠
Original Assignee
후지쯔 가부시끼가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 후지쯔 가부시끼가이샤 filed Critical 후지쯔 가부시끼가이샤
Publication of KR20120125158A publication Critical patent/KR20120125158A/ko
Application granted granted Critical
Publication of KR101306671B1 publication Critical patent/KR101306671B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25808Management of client data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Communication protocols
    • H04N21/64322IP
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/654Transmission by server directed to the client
    • H04N21/6547Transmission by server directed to the client comprising parameters, e.g. for client setup
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25866Management of end-user data
    • H04N21/25875Management of end-user data involving end-user authentication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/007Aspects relating to detection of stereoscopic image format, e.g. for adaptation to the display format

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

본 발명은 2차원 화상의 화상 데이터의 통신에 의해 입체시 화상을 주고받는 정보 처리 장치를 제공하는 것을 과제로 한다.
이러한 과제를 해결하기 위한 수단으로서, 화상 데이터를 수신하는 수신부와, 상기 수신부가 수신한 상기 화상 데이터가, 입체시용 화상을 포함하는지의 여부를 판정하는 판정부와, 상기 판정부가 상기 화상 데이터가 입체시용 화상을 포함한다고 판정했을 경우, 상기 화상 데이터를 입체시 화상으로 변환하는 변환부와, 상기 변환부에 의해 변환된 입체시 화상을 표시하는 표시부를 구비하는 정보 처리 장치로 한다.

Description

정보 처리 장치, 정보 처리 방법, 및 컴퓨터 판독 가능 기억 매체{INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND COMPUTER READABLE STORAGE MEDIUM}
본 발명은 정보 처리 장치, 정보 처리 방법, 정보 처리 프로그램에 관한 것이다.
인터넷이나 LAN(Local Area Network) 등, IP(Internet Protocol) 네트워크를 베이스로 한 네트워크 서비스가 보급되어 있다. 또한, 네트워크 회선의 대용량화 에 수반하여, 통신 데이터량이 많은 데이터를 이용한 서비스가 제공되기 시작하고 있다.
인터넷 등의 네트워크를 통해, 복수의 컴퓨터간에서, 컴퓨터에 접속되는 카메라에 의해 촬영된 상대의 화상을 보면서 회화 등을 하는 비디오 채팅(화상 채팅, 동화상 채팅)과 같은 서비스가 있다.
통상의 비디오 채팅 서비스에서는, 송신측 컴퓨터의 1개의 카메라에 의해 촬영된 화상이, 송신측 컴퓨터로부터, 비디오 채팅 서비스를 제공하는 네트워크 상의 서버에 송신된다. 당해 서버는 수신한 화상을 수신측 컴퓨터에 송신한다. 당해 서버는 통신 회선의 상황, 수신측 컴퓨터의 상황 등에 의해, 수신한 화상을 솎아내는 등 하여, 수신한 화상의 데이터량을 압축하는 경우도 있다. 수신측 컴퓨터는 수신한 화상을 수신측 컴퓨터의 표시 장치에 표시한다. 또한, 마찬가지로, 수신측 컴퓨터도 당해 서버를 통해, 송신측 컴퓨터에 화상을 송신하고, 송신측 컴퓨터는 수신한 화상을 송신측 컴퓨터의 표시 장치에 표시한다. 이와 같이 하여, 송신측 컴퓨터의 이용자, 및 수신측 컴퓨터의 이용자는, 서로 상대측 컴퓨터로부터 송신되는 화상을 자신측 컴퓨터의 표시 장치로 시청할 수 있다.
한편, 인접한 2개의 카메라에 의해 촬영된 화상의 시차를 이용하여 입체시(立體視)가 가능한 화상을 생성하는 입체시 화상 생성 장치가 있다. 입체시 화상 생성 장치는, 예를 들면 인접한 2개의 카메라로 촬영한 화상 중, 한쪽의 카메라에 의한 화상을 좌안(左眼)용 화상으로서, 다른쪽의 카메라에 의한 화상을 우안(右眼)용 화상으로서 생성하여 표시한다. 입체시 화상 생성 장치는, 시청자의 좌안에 대하여 좌안용 화상을, 우안에 대하여 우안용 화상을 표시하도록 하여, 시청자에게 입체적인 화상을 느끼게 한다.
일본국 특개2003-289553호 공보 일본국 특개2010-62695호 공보 일본국 특개2004-94639호 공보
비디오 채팅 서비스에서 사용되는, 송신측으로부터 수신측에 송신되는 화상은, 통상 1개의 카메라에 의해 촬영된 1개의 화상(동화상)이다. 그 때문에, 비디오 채팅 서비스를 제공하는 서버는, 1개의 카메라에 의해 촬영된 화상(2차원 화상, 비(非)입체시 화상)을 송수신하는 것에 대응하고 있고, 2개의 카메라에 의해 촬영된 화상(입체시 화상)을 송수신하는 것에는 대응하고 있지 않다. 한편, 입체시 화상은, 2개의 화상(좌안용 화상 및 우안용 화상)을 사용함으로써, 시청자에게 입체감을 느끼게 한다. 그러므로, 비디오 채팅 서비스를 제공하는 서버가 2개의 화상을 송수신하는 것에 대응하고 있지 않을 경우, 2개의 카메라에 의해 촬영된 화상을 사용하는 입체시 화상(입체 화상)을, 비디오 채팅에서 사용하는 것은 곤란하다. 그러나, 비디오 채팅 서비스를 이용하는 컴퓨터의 이용자가, 자신이 이용하는 비디오 채팅 서비스를 제공하는 서버에, 입체시 화상에 대응시키는 것은 어렵다. 따라서, 1개의 카메라로부터의 화상(2차원 화상, 비입체시 화상)을 송수신하는 비디오 채팅 서비스를 제공하는 서버여도, 당해 비디오 채팅 서비스에 있어서 입체시 화상을 이용할 수 있는 것이 바람직하다.
개시한 장치는, 2차원 화상의 화상 데이터의 통신에 의해 입체시 화상을 주고받는 정보 처리 장치를 제공하는 것을 과제로 한다.
개시한 장치는 상기 과제를 해결하기 위해 이하의 수단을 채용한다.
즉, 제1 양태는,
화상 데이터를 수신하는 수신부와,
상기 수신부가 수신한 상기 화상 데이터가, 입체시용 화상을 포함하는지의 여부를 판정하는 판정부와,
상기 판정부가 상기 화상 데이터가 입체시용 화상을 포함한다고 판정했을 경우, 상기 화상 데이터를 입체시 화상으로 변환하는 변환부와,
상기 변환부에 의해 변환된 입체시 화상을 표시하는 표시부를 구비하는 정보 처리 장치이다.
개시한 양태는, 프로그램이 정보 처리 장치에 의해 실행됨으로써 실현되어도 된다. 즉, 개시한 구성은, 상기한 양태에 있어서의 각 수단이 실행하는 처리를, 정보 처리 장치에 대하여 실행시키기 위한 프로그램, 혹은 당해 프로그램을 기록한 기록 매체로서 특정할 수 있다. 또한, 개시한 구성은, 상기한 각 수단이 실행하는 처리를 정보 처리 장치가 실행하는 방법을 갖고 특정되어도 된다.
개시한 실시형태에 의하면, 2차원 화상의 화상 데이터의 통신에 의해 입체시 화상을 주고받는 정보 처리 장치를 제공할 수 있다.
도 1은 정보 처리 시스템의 구성예를 나타내는 도면.
도 2는 서버 장치의 구성예를 나타내는 도면.
도 3은 송신측 단말의 구성예를 나타내는 도면.
도 4는 이용자 테이블의 예를 나타내는 도면.
도 5는 수신측 단말의 구성예를 나타내는 도면.
도 6은 정보 처리 장치의 하드웨어 구성예를 나타내는 도면.
도 7은 정보 처리 시스템의 동작 시퀀스의 예를 나타내는 도면.
도 8은 송신측 단말의 동작 플로우의 예를 나타내는 도면.
도 9는 입체시 화상이 변환된 예를 나타내는 도면.
도 10은 수신측 단말의 동작 플로우의 예를 나타내는 도면.
도 11은 화상 데이터의 복호, 입체시 화상의 생성을 설명하는 도면.
도 12는 수신측 단말의 표시 장치의 표시예(화면예)를 나타내는 도면.
이하, 도면을 참조하여 실시형태에 대해서 설명한다. 실시형태의 구성은 예시이며, 개시한 실시형태의 구성에 한정되지 않는다.
여기에서는, 비디오 채팅(화상 채팅) 서비스를 예로 하여, 실시형태를 설명한다. 개시한 구성은 비디오 채팅 외에, 텔레비전 전화, WEB 회의, 비디오 회의 등 화상을 수반하는 통신 장치, 통신 시스템 전반에 적용될 수 있다. 화상에는 동화상이 포함된다.
이하의 설명에서는, 좌안용 화상 및 우안용 화상이 사용되지만, 좌안용 화상과 우안용 화상 사이에는 우열은 없고, 서로 교체할 수 있다.
〔실시형태〕
(구성예)
도 1은 본 실시형태의 정보 처리 시스템의 구성예를 나타내는 도면이다. 도 1의 정보 처리 시스템(1)은 네트워크(10)에 접속된 서버 장치(100), 송신측 단말(200), 수신측 단말(300)을 포함한다. 서버 장치(100)는 송신측 단말(200)로부터 송신된 화상을 수신측 단말(300)에 송신한다. 송신측 단말(200)은 송신측 단말(200)의 카메라로 촬영한 화상을 서버 장치(100)에 송신한다. 수신측 단말(300)은 서버 장치(100)로부터 수신한 화상(영상)을 표시 장치에 표시한다. 네트워크(10)는, 예를 들면 인터넷, LAN이다. 네트워크(10)는 이들에 한정되는 것이 아니다. 송신측 단말(200) 및 수신측 단말(300)은 네트워크(10) 및 서버 장치(100)를 통해 서로 통신 가능해진다. 서버 장치(100), 송신측 단말(200), 수신측 단말(300)은, 패스워드 등의 정보의 암호화, 다른 장치로부터의 정보의 복호화를 행하는 암호화·복호화 기능을 가져도 된다.
비디오 채팅 서비스 등에 있어서, 송신측 단말(200) 및 수신측 단말(300)은 상호 화상을 송수신한다. 여기에서는, 편의적으로 화상을 송신하는 단말을 송신측 단말(200), 화상을 수신하는 단말을 수신측 단말(300)로 하고 있지만, 송신측 단말(200) 및 수신측 단말(300)은 원칙적으로 동일한 구성을 갖는다. 즉, 송신측 단말(200)은 수신측 단말(300)에 포함되는 구성을 갖고, 수신측 단말(300)은 송신측 단말(200)에 포함되는 구성을 갖는다. 송신측 단말(200)은 수신측 단말(300)로서도 동작하고, 수신측 단말(300)은 송신측 단말(200)로서도 동작한다.
송신측 단말(200)을 조작하는 이용자 및 수신측 단말(300)을 조작하는 이용자는, ID나 패스워드 등에 의해, 서버 장치(100)가 제공하는 비디오 채팅 서비스에 대한 조작 권한을 갖는 것으로 한다.
도 2는 서버 장치의 구성예를 나타내는 도면이다. 서버 장치(100)는 송수신부(102), 제어부(104), 저장부(106)를 포함한다.
서버 장치(100)는 송신측 단말(200) 및 수신측 단말(300)에 대하여, 비디오 채팅 서비스를 제공한다. 서버 장치(100)는 송신측 단말(200)로부터 수신한 화상 데이터를 수신측 단말(300)에 송신한다. 서버 장치(100)는 적어도, 일방향(예를 들면, 송신측 단말(200)로부터 수신측 단말(300)로의 방향)으로, 1개의 화상을 전송하는 기능을 갖는다. 서버 장치(100)는 각 단말의 이용자를 비디오 채팅 서비스의 이용자로서 인증할 수 있다.
송수신부(102)는 송신측 단말(200)로부터 송신되는 화상 데이터, 음성 데이터, 문자 데이터, 이용자 정보 등을 수신한다. 또한, 송수신부(102)는 수신측 단말(300)에 대하여, 수신한 화상 데이터, 음성 데이터, 문자 데이터, 이용자 정보 등을 송신한다. 화상 데이터 등은, 스트리밍 데이터로서 송수신될 수 있다.
제어부(104)는 서버 장치(100)의 제어, 연산을 행한다. 제어부(104)는 송신측 단말(200)로부터 수신한 데이터를 수신측 단말(300)에 송신할 때에, 송신측 단말(200)로부터의 데이터에 포함되는 이용자 정보에 의거하여, 저장부(106)에 저장되는 수신측 단말(300)의 어드레스를 추출한다. 제어부(104)는 추출한 어드레스에 의거하여 송수신부(102)에, 송신측 단말(200)로부터 수신한 데이터를, 수신측 단말(300)에 송신할 것을 지시한다. 제어부(104)는 송신측 단말(200)의 이용자, 수신측 단말(300)의 이용자에 대해서, 비디오 채팅 서비스에 있어서의 유저 인증을 행한다.
저장부(106)는, 이용자 정보와 당해 이용자가 이용하는 수신측 단말(300)(또는, 송신측 단말(200))의 어드레스를 대응지어 저장한다. 또한, 저장부(106)는 비디오 채팅 서비스의 이용자의 유저 ID 및 패스워드를 대응짓고 있는 어카운트 테이블을 저장한다.
도 3은 송신측 단말의 구성예를 나타내는 도면이다. 송신측 단말(200)은 송수신부(202), 제어부(204), 저장부(206), 입력부(208), 표시부(210)를 포함한다.
송수신부(202)는 송신측 단말(200)의 이용자 정보, 수신측 단말(300)의 이용자 정보, 화상 데이터 등을 서버 장치(100)에 송신한다.
제어부(204)는 송신측 단말(200)의 제어, 연산을 행한다. 입력부(208)에서 취득된 화상을 송신용 화상 데이터로 변환한다. 제어부(204)는 송수신부(202)에, 화상 데이터 등을 서버 장치(100)에 송신하도록 지시한다.
저장부(206)는 입체시 화상을 수신할 수 있는 수신측 단말(300)의 이용자 정보를 포함하는 이용자 테이블(T100) 등이 저장된다.
도 4는 이용자 테이블의 예를 나타내는 도면이다. 도 4의 이용자 테이블(T100)은 「3D 채팅 멤버」 및 「UserAgent 정보(UA 정보)」를 대응지어 저장한다. 3D 채팅 멤버는 입체시 화상에 의한 비디오 채팅이 가능한 상대편 이용자이다. UA 정보는, 당해 상대편 이용자의 이용자 정보 및 송신측 단말(200)의 입체시 화상의 송신 방식의 정보이다. 이용자 정보는, 예를 들면 상대편 이용자의 비디오 채팅 서비스에 있어서의 유저 ID이다. 또한, UA 정보에는, 상대편 이용자의 단말의 정보가 포함되어도 된다. UA 정보는 파일의 압축 방법, 암호화 방법, 이용자가 소속하는 그룹명, 이용 가능한 화상의 종류, 음성의 종류 등의 정보를 포함해도 된다. 「3D 채팅 멤버」 대신에 「채팅 멤버」로 하고, 당해 「채팅 멤버」는 입체시 화상에 의한 비디오 채팅이 가능한 상대편 이용자와, 입체시 화상에 의한 비디오 채팅이 불가능한 상대편 이용자를 포함해도 된다. 입체시 화상에 의한 비디오 채팅이 불가능한 상대편 이용자에 대해서는, 통상의 2차원 화상에 의한 비디오 채팅이 가능하다. 이 경우, 입체시 화상에 의한 비디오 채팅의 가부를 판별할 수 있도록, 예를 들면 입체시 화상에 의한 비디오 채팅이 가능한 채팅 멤버의 유저명에 특정한 기호 등이 부가되어도 된다.
이용자 테이블(T100)은 서버 장치(100)의 저장부(106)에 저장되어 있어도 된다. 이때, 서버 장치(100)는 송신측 단말(200)의 이용자를 인증한 후, 송신측 단말(200)에 이용자 테이블(T100)의 정보를 송신한다. 송신측 단말(100)은 수신한 이용자 테이블(T100)의 정보를 저장부(206)에 저장한다.
입력부(208)는 2개의 카메라, 마이크로폰, 키보드 등을 포함한다. 2개의 카메라, 마이크로폰, 키보드 등은, 각각 송신측 단말(200)에 내장되어 있어도, 송신측 단말(200)에 접속되어 있어도 된다. 당해 2개의 카메라는 입체시 화상을 촬영 가능하게 배치된다. 당해 2개의 카메라는, 예를 들면 소정의 간격을 두고, 인접해서 설치된다.
출력부(210)는 표시 장치, 스피커 등을 포함한다. 표시 장치, 스피커 등은, 각각 송신측 단말(200)에 내장되어 있어도, 송신측 단말(200)에 접속되어 있어도 된다.
도 5는 수신측 단말의 구성예를 나타내는 도면이다. 수신측 단말(300)은 송수신부(302), 제어부(304), 저장부(306), 입력부(308), 표시부(310)를 포함한다.
송수신부(302)는 서버 장치(100)로부터 송신측 단말(200)의 이용자 정보, 수신측 단말(300)의 이용자 정보, 화상 데이터 등을 수신한다.
제어부(304)는 수신측 단말(300)의 제어, 연산을 행한다. 제어부(304)는 수신한 화상 신호를 입체시 화상으로 변환하고, 출력부(310)에서 표시시킨다. 제어부(304)는 판정부, 또는 변환부로서 동작할 수 있다.
저장부(306)는 송신측 단말(200)의 이용자 정보 등이 저장된다.
입력부(308)는 키보드 등을 포함한다. 키보드 등은 수신측 단말(300)에 내장되어 있어도, 수신측 단말(300)에 접속되어 있어도 된다. 제어부(304) 및 입력부(308)는 접수부로서 동작할 수 있다.
출력부(310)는 표시 장치, 스피커 등을 포함한다. 표시 장치, 스피커 등은, 각각 수신측 단말(300)에 내장되어 있어도, 수신측 단말(300)에 접속되어 있어도 된다. 당해 표시 장치는 입체시용 표시 장치이다. 입체시용 표시 장치는, 시청자의 좌안에 대하여 좌안용 화상을, 우안에 대하여 우안용 화상을 표시하도록 하여, 시청자에게 입체적인 화상을 느끼게 하는 표시 장치이다. 출력부(310)는 표시부로서 동작할 수 있다.
서버 장치(100)는 퍼스널 컴퓨터(PC, Personal Computer)와 같은 범용 컴퓨터 또는 서버 머신과 같은 전용 컴퓨터를 사용하여 실현 가능하다.
송신측 단말(200) 및 수신측 단말(300)은 PC, 워크스테이션(WS, Work Station), PDA(Personal Digital Assistant)와 같은 전용 또는 범용 컴퓨터, 혹은 컴퓨터를 탑재한 전자 기기를 사용하여 실현 가능하다. 또한, 송신측 단말(200) 및 수신측 단말(300)은 스마트폰, 휴대전화, 카 네비게이션 장치와 같은 전용 또는 범용 컴퓨터, 혹은 컴퓨터를 탑재한 전자 기기를 사용하여 실현 가능하다.
도 6은 정보 처리 장치의 하드웨어 구성예를 나타내는 도면이다. 서버 장치(100), 송신측 단말(200) 및 수신측 단말(300)은, 각각 예를 들면 도 6에 나타내는 바와 같은 정보 처리 장치(1000)에 의해 실현된다.
컴퓨터, 즉 정보 처리 장치(1000)는 CPU(Central Processing Unit)(1002), 메모리(1004), 기억부(1006), 입력부(1008), 출력부(1010), 통신부(1012)를 포함한다.
정보 처리 장치(1000)는 CPU(1002)가 기록부(1006)에 기억된 프로그램을 메모리(1004)의 작업 영역에 로드하여 실행하고, 프로그램의 실행을 통하여 주변 기기가 제어됨으로써, 소정의 목적에 합치한 기능을 실현할 수 있다.
CPU(1002)는 기억부(1006)에 저장되는 프로그램에 따라서 처리를 행한다.
메모리(1004)는 CPU(1002)가 프로그램이나 데이터를 캐시하거나 작업 영역을 전개하거나 한다. 메모리(1004)는 예를 들면, RAM(Random Access Memory)이나 ROM(Read Only Memory)을 포함한다. 메모리(1004)는 주기억 장치이다.
기억부(1006)는 각종 프로그램 및 각종 데이터를 읽고 쓰기 가능하게 기록 매체에 저장한다. 기억부(1006)는 예를 들면 EPROM(Erasable Programmable ROM), 솔리드 스테이트 드라이브(SSD, Solid State Drive) 장치, 하드디스크 드라이브(HDD, Hard Disk Drive) 장치이다. 기억부(1006)로서는, 예를 들면 CD(Compact Disc) 드라이브 장치, DVD(Digital Versatile Disk) 드라이브 장치, +R/+RW 드라이브 장치, HD DVD(High-Definition Digital Versatile Disk) 드라이브 장치, 또는 BD(Blu-ray Disk) 드라이브 장치가 있다. 또한, 기록 매체로서는, 예를 들면 불휘발성 반도체 메모리(플래시 메모리)를 포함하는 실리콘 디스크, 하드디스크, CD, DVD, +R/+RW, HD DVD, 또는 BD가 있다. CD로서는 CD-R(Recordable), CD-RW(Rewritable), CD-ROM이 있다. DVD로서는 DVD-R, DVD-RAM(Random Access Memory)이 있다. BD로서는 BD-R, BD-RE(Rewritable), BD-ROM이 있다. 또한, 기억부(1006)는 리무버블 미디어, 즉 휴대 기록 매체를 포함할 수 있다. 리무버블 미디어는, 예를 들면 USB(Universal Serial Bus) 메모리, 혹은 CD나 DVD와 같은 디스크 기록 매체이다. 기억부(1006)는 2차 기억 장치이다.
메모리(1004) 및 기억부(1006)는 컴퓨터 판독 가능한 기록 매체이다.
입력부(1008)는 유저 등으로부터의 조작 지시 등을 접수한다. 입력부(1008)는 키보드, 포인팅 디바이스, 와이어리스 리모트 컨트롤, 마이크로폰, 디지털 스틸 카메라, 디지털 비디오 카메라 등의 입력 디바이스이다. 입력부(1008)로부터 입력된 정보는 CPU(1002)에 통지된다.
출력부(1010)는 CPU(1002)에서 처리되는 데이터나 메모리(1004)에 기억되는 데이터를 출력한다. 출력부(1010)는 CRT(Cathode Ray Tube) 디스플레이, LCD(Liquid Crystal Display), PDP(Plasma Display Panel), EL(Electroluminescence) 패널, 프린터, 스피커 등의 출력 디바이스이다.
통신부(1012)는 외부 장치와 데이터의 송수신을 행한다. 통신부(1012)는, 예를 들면 신호선을 통해 외부 장치와 접속된다. 외부 장치는, 예를 들면 다른 정보 처리 장치, 기억 장치이다. 통신부(1012)는, 예를 들면 LAN(Local Area Network) 인터페이스 보드나, 무선 통신을 위한 무선 통신 회로이다.
정보 처리 장치(1000)는 기억부(1006)에 오퍼레이팅 시스템, 각종 프로그램, 각종 테이블 등을 기억하고 있다.
오퍼레이팅 시스템은, 소프트웨어와 하드웨어의 중개, 메모리 공간의 관리, 파일 관리, 프로세스나 태스크의 관리 등을 행하는 소프트웨어이다. 오퍼레이팅 시스템은 통신 인터페이스를 포함한다. 통신 인터페이스는 통신부(1012)를 통해 접속되는 다른 외부 장치 등과 데이터의 주고받기를 행하는 프로그램이다.
서버 장치(100)를 실현하는 컴퓨터는, 프로세서가 2차 기억 장치에 기억되어 있는 프로그램을 주기억 장치에 로드하여 실행함으로써, 제어부(102)로서의 기능을 실현한다. 한편, 저장부(106)는 주기억 장치 또는 2차 기억 장치의 기억 영역에 설치된다. 송수신부(102)는 CPU(1002), 통신부(1012)로서 실현할 수 있다.
송신측 단말(200)을 실현하는 컴퓨터는, 프로세서가 2차 기억 장치에 기억되어 있는 프로그램을 주기억 장치에 로드하여 실행함으로써, 제어부(202)로서의 기능을 실현한다. 한편, 저장부(206)는 주기억 장치 또는 2차 기억 장치의 기억 영역에 설치된다. 입력부(208), 출력부(210)는, 각각 입력부(1008), 출력부(1010)로서 실현될 수 있다. 송수신부(202)는 CPU(1002), 통신부(1012)로서 실현할 수 있다.
수신측 단말(300)을 실현하는 컴퓨터는, 프로세서가 2차 기억 장치에 기억되어 있는 프로그램을 주기억 장치에 로드하여 실행함으로써, 제어부(302)로서의 기능을 실현한다. 한편, 저장부(306)는 주기억 장치 또는 2차 기억 장치의 기억 영역에 설치된다. 입력부(308), 출력부(310)는, 각각 입력부(1008), 출력부(1010)로서 실현될 수 있다. 송수신부(302)는 CPU(1002), 통신부(1012)로서 실현할 수 있다.
일련의 처리는, 하드웨어에 의해 실행시킬 수도 있지만, 소프트웨어에 의해 실행시킬 수도 있다.
프로그램을 기술하는 스텝은, 기재된 순서에 따라 시계열적으로 행해지는 처리는 물론, 반드시 시계열적으로 처리되지 않아도, 병렬적 또는 개별적으로 실행되는 처리를 포함한다.
(동작예)
<전체>
도 7은 본 실시형태의 정보 처리 시스템의 동작 시퀀스의 예를 나타내는 도면이다. 정보 처리 시스템(1)에서는, 수신측 단말(300)이 송신측 단말(200)로부터의 접속을 허가함으로써, 송신측 단말(200)로부터 수신측 단말(300)에, 서버 장치(100)를 통해 입체시 화상의 데이터가 송신된다.
도 7의 동작 시퀀스는, 송신측 단말(200)의 이용자가, 서버 장치(100)에 있어서의 비디오 채팅 서비스의 이용자로서, 서버 장치(100)에 의해 인증됨으로써 개시된다.
서버 장치(100)에 의한 인증은, 예를 들면 송신측 단말(200)의 이용자에 의해 입력된 유저 ID와 패스워드에 의해 행해진다. 송신측 단말(200)로부터 서버 장치(100)에 유저 ID와 패스워드가 송신되면, 서버 장치(100)의 제어부(104)는 유저 ID와 패스워드의 조합이 저장부(106)에 저장되는 어카운트 테이블에 존재하는지의 여부를 확인한다. 존재할 경우, 서버 장치(100)의 제어부(104)는 인증 OK로 판정한다. 존재하지 않을 경우, 서버 장치의 제어부(104)는 인증 NG로 판정한다. 이때, 서버 장치(100)는 인증 결과를 송신측 단말(200)에 통지한다. 서버 장치(100)는 수신측 단말(300)의 이용자에 대해서도, 마찬가지로 인증할 수 있다.
송신측 단말(200)은 「인증 OK」라는 인증 결과를 서버 장치(100)로부터 수신하면, 이용자에 대하여, 입체시 화상에 의한 비디오 채팅이 가능한 상대편 이용자를 표시한다. 입체시 화상에 의한 비디오 채팅이 가능한 상대편 이용자는, 이용자 테이블(T100)에 「3D 채팅 멤버」로서 저장된다. 송신측 단말(200)의 제어부(204)는 저장부(206)에 저장되는 이용자 테이블(T100)로부터 「3D 채팅 멤버」를 추출하고, 표시 장치에 표시한다. 송신측 단말(200)은, 이용자에게, 표시된 이용자 중에서, 원하는 상대편 이용자를 선택시킨다. 송신측 단말(200)은 입체시 화상에 의한 비디오 채팅이 가능한 상대편 이용자, 입체시 화상에 의한 비디오 채팅이 불가능한 상대편 이용자를 표시해도 된다. 송신측 단말(200)은 입체시 화상에 의한 비디오 채팅이 불가능한 상대편 이용자에 대하여 화상을 송신할 경우에는, 입체시 화상이 아니라 통상의 2차원 화상(예를 들면 1대의 카메라에 의해 촬영된 화상)을 송신한다.
상대편 이용자가 선택되면, 송신측 단말(200)은, 송신측 단말(200)의 이용자 정보와 함께, 수신측 단말(300)의 이용자 정보를 서버 장치(100)에 송신한다(SQ1001). 송신측 단말(200)의 이용자 정보는 송신측 단말(200)의 정보 등을 포함해도 된다. 수신측 단말(300)의 이용자 정보는 수신측 단말(300)의 정보 등을 포함해도 된다. 송신측 단말(200)의 이용자 정보, 또는 수신측 단말(300)의 이용자 정보는, 송신측 단말(200)의 입체시 화상의 송신 방식의 정보를 포함한다. 여기에서는, 일례로서, 수신측 단말(300)의 이용자 정보가, 송신측 단말(200)의 입체시 화상의 송신 방식의 정보를 포함하는 것으로 한다. 송신측 단말(200)의 이용자 정보는, 예를 들면 송신측 단말(200)의 이용자의 유저 ID이다. 수신측 단말(300)의 이용자 정보는, 예를 들면 이용자 테이블(T100)에 있어서의 UserAgent 정보(UA 정보)이다. UA 정보는, 상대편 이용자의 정보 및 송신측 단말(200)의 입체시 화상의 송신 방식의 정보(송신 방식 정보)를 포함한다.
서버 장치(100)는 송신측 단말(200)로부터 수신한, 송신측 단말(200)의 이용자 정보, 및 수신측 단말(300)의 이용자 정보를 수신측 단말(300)에 송신한다(SQ1002). 서버 장치(100)는 수신측 단말(300)의 이용자 정보로부터, 송신처의 수신측 단말(300)을 특정한다. 서버 장치(100)는, 예를 들면 수신측 단말(300)의 어드레스와, 수신측 단말(300)의 이용자를 대응짓는 테이블에 의해, 송신처의 수신측 단말(300)을 특정한다. 당해 테이블은, 예를 들면 서버 장치(100)의 저장부(106)에 저장된다. 수신측 단말(300)의 이용자 정보에는, 송신측 단말(200)의 입체시 화상의 송신 방식의 정보가 포함되지만, 서버 장치(100)는 송신측 단말(200)의 입체시 화상의 송신 방식의 정보가 포함되는 것을 인식하지 않아도 된다.
수신측 단말(300)은 서버 장치(100)로부터, 송신측 단말(200)의 이용자 정보, 수신측 단말(300)의 이용자 정보를 수신한다. 수신측 단말(300)의 이용자 정보에는, 송신측 단말(200)의 입체시 화상의 송신 방식의 정보가 포함된다. 수신측 단말(300)은 수신측 단말(300)의 이용자 정보에, 송신측 단말(200)의 입체시 화상의 송신 방식의 정보가 포함되어 있음을 인식한다. 즉, 수신측 단말(300)은 송신측 단말(200)의 이용자가 입체시 화상에 의한 통신을 요구하고 있음을 인식한다.
수신측 단말(300)은 수신측 단말(300)의 이용자에게, 송신측 단말(200)의 이용자가 입체시 화상에 의한 통신을 요구하고 있다는 취지를 통지한다. 수신측 단말(300)의 이용자가 통신을 허가하지 않을 경우, 수신측 단말(300)은 통신을 허가하지 않는다는 취지의 정보를 서버 장치(100)를 통해 송신측 단말(200)에 송신한다. 이때, 송신측 단말(200)의 이용자와 수신측 단말(300)의 이용자는 통신할 수 없다.
수신측 단말(300)의 이용자가 통신을 허가할 경우, 수신측 단말(300)은, 송신측 단말(200)과의 통신을 허가한다는 취지의 정보인 접속 허가 정보를 서버 장치(100)에 송신한다(SQ1003). 서버 장치(100)는 수신측 단말(300)로부터 접속 허가 정보를 수신하면, 접속 허가 정보를 송신측 단말(200)에 송신한다(SQ1004).
송신측 단말(200)은, 수신측 단말(300)로부터의 접속 허가 정보를 수신하면, 수신측 단말(300)을 향하여, 서버 장치(100)에, 접속 허가 수신 응답을 송신한다(SQ1005). 서버 장치(100)는 접속 허가 수신 응답을 수신하면, 수신측 단말(300)에 접속 허가 수신 응답을 송신한다(SQ1006). 수신측 단말(300)은 송신측 단말(200)로부터의 접속 허가 수신 응답을 수신하면, 송신측 단말(200)로부터 입체시용 화상을 포함하는 화상 데이터가 송신되어 옴을 인식한다.
송신측 단말(200)은 수신측 단말(300)에 접속 허가 수신 응답을 송신하면, 수신측 단말(300)에 송신하는 입체시 화상을 준비한다. 송신측 단말(200)은 수신측 단말(300)에 송신하는 입체시 화상을 송신용 화상 데이터로 변환한다. 송신측 단말(200)은, 예를 들면 입체시 화상을, 1프레임(1화상)마다 사이드 바이 사이드(side-by-side)의 화상 데이터(입체시용 화상을 포함하는 데이터)로 변환한다. 송신측 단말(200)은 1개의 프레임에 좌안용 화상 및 우안용 화상을 포함하는 화상 데이터가 되도록 변환한다. 즉, 송신측 단말(200)은 좌안용 화상 및 우안용 화상을 1개의 화상 데이터로 합성한다. 합성된 화상 데이터는 입체시용 화상을 포함하는 데이터이다. 1개의 프레임에 좌안용 화상 및 우안용 화상을 포함함으로써, 서버 장치(100)에서, 데이터 압축 등을 위해 프레임을 솎아냈다고 해도, 송신한 화상이 수신측 단말(300)에서 입체시 화상으로서 재생될 수 있다. 합성된 화상 데이터는 2차원 화상의 화상 데이터와 마찬가지인 데이터이다.
송신측 단말(200)은 변환된 송신용 화상 데이터를, 수신측 단말(300)을 향하여 서버 장치(100)에 송신한다(SQ1007). 당해 화상 데이터는 1개의 화면의 화상 데이터이다. 서버 장치(100)는 화상 데이터 등을 수신하면, 수신측 단말(300)에 당해 화상 데이터 등을 송신한다(SQ1008). 송신측 단말(200) 또는 서버 장치(100)는 화상 데이터를 부호화(인코딩)할 수 있다.
수신측 단말(300)은 서버 장치(100)로부터 화상 데이터 등을 수신한다. 수신측 단말(300)은 화상 데이터를 복호하고, 입체시 화상을 표시할 수 있는 표시 장치에 복호한 입체시 화상을 표시한다. 또한, 수신측 단말(300)은 화상 데이터를 복호한 결과, 입체시용 화상을 포함하지 않는다고 판단했을 경우, 입체시 화상으로서의 표시를 행하지 않는다. 수신측 단말(300)은 화상 데이터와 함께, 음성 데이터 및 문자 데이터를 수신하고 있을 경우, 입체시 화상의 표시와 함께 이들을 재생한다.
또한, 입체시 화상이 동화상일 경우, 송신측 단말(200)은 순차적으로(예를 들면 1프레임마다), 입체시 화상을 입체시 화상을 포함하는 화상 데이터로 변환하고, 수신측 단말(300)을 향하여 송신한다. 수신측 단말(300)은 수신한 화상 데이터를, 순차적으로(예를 들면 1프레임마다) 복호하고, 표시 장치에 입체시 화상을 표시한다. 이때, 송신측 단말(200)은 화상 데이터를 스트리밍 데이터로서 생성하고 송신한다. 또한, 수신측 단말(300)은 입체시용 화상을 포함하는 화상 데이터를 스트리밍 데이터로서 수신하고 재생한다.
<송신측 단말>
도 8은 송신측 단말의 동작 플로우의 예를 나타내는 도면이다. 도 8의 동작 플로우는 송신측 단말(200)의 이용자가, 서버 장치(100)에 있어서의 비디오 채팅 서비스의 이용자로서, 서버 장치(100)에 의해 인증됨으로써 개시된다.
송신측 단말(200)은 서버 장치(100)로부터 인증되면, 이용자에 대하여 입체시 화상에 의한 비디오 채팅이 가능한 상대편 이용자를 표시한다. 입체시 화상에 의한 비디오 채팅 가능한 상대편 이용자는, 이용자 테이블(T100)에 「3D 채팅 멤버」로서 저장된다. 송신측 단말(200)의 제어부(204)는 저장부(206)에 저장되는 이용자 테이블(T100)로부터 「3D 채팅 멤버」를 추출하고, 표시 장치에 표시한다. 송신측 단말(200)은 이용자에게, 표시된 이용자 중에서, 원하는 상대편 이용자를 선택시킨다(S101). 도 4의 이용자 테이블(T100)의 예에서는, 「sidebyside(side-by-side)」가, 송신측 단말(200)의 입체시 화상의 송신 방식이다. 이용자 테이블(T100)은 서버 장치(100)로부터 인증 후에 제공되어도 된다. 서버 장치(100)로부터 제공되는 이용자 테이블(T100)에는, 현시점에서 통신 가능한 이용자가 포함되며, 현시점에서 통신 가능하지 않은 이용자가 포함되어 있지 않아도 된다. 현시점에서의 통신 가능한 이용자는, 예를 들면 서버 장치(100)에, 비디오 채팅 서비스의 이용자로서, 현시점에서 인증되고 있는 이용자이다.
상대편 이용자가 선택되면, 송신측 단말(200)의 송수신부(202)는 송신측 단말(200)의 이용자 정보와 함께, 통신을 원하는 상대편 이용자의 수신측 단말(300)의 이용자 정보를, 서버 장치(100)를 통해 수신측 단말(300)에 송신한다(S102). 송신측 단말(200)은 이용자 정보 등을 송신하면, 수신측 단말(300)로부터 접속 허가가 송신되어 오는 것을 대기한다.
송신측 단말(200)은 수신측 단말(300)로부터의 통신을 허가한다는 취지의 접속 허가 정보를 수신하면(S103), 송신측 단말(200)은 접속 허가 수신 응답을 생성한다. 접속 허가 수신 응답은, 송신측 단말(200)이 수신측 단말(300)에 접속 허가를 수신했음을 통지하는 정보이다. 송신측 단말(200)은 수신측 단말(300)을 향하여, 접속 허가 수신 응답을 송신한다(S104).
송신측 단말(200)은 수신측 단말(300)에 접속 허가 수신 응답을 송신하면, 수신측 단말(300)에 송신하는 입체시 화상의 준비를 개시한다(S105). 송신측 단말(200)은, 예를 들면 수신측 단말(300)에 송신하는 입체시 화상으로서, 입력부(208)의 2개의 카메라로 촬영을 개시한다. 2개의 카메라 중, 한쪽의 카메라에 의해 촬영된 화상은 좌안용 화상이며, 다른쪽의 카메라에 의해 촬영된 화상은 우안용 화상이다. 또한, 예를 들면 송신측 단말(200)의 이용자에 의해, 저장부(206) 등에 저장되는 입체시 화상이, 수신측 단말(300)에 송신하는 입체시 화상으로서 선택되어도 된다.
송신측 단말(200)은 수신측 단말(300)에 송신하는 입체시 화상을, 송신용 화상 데이터로 변환한다(S106). 송신측 단말(200)은 좌안용 화상 및 우안용 화상의 2개의 화상을 1개의 송신용 화상 데이터로 변환한다. 송신측 단말(200)은, 예를 들면 입체시 화상을, 1프레임마다 사이드 바이 사이드(side-by-side)의 화상 데이터로 변환한다. 여기에서 변환된 화상 데이터는, 서버 장치(100)에서는 1개의 화상 데이터로서 인식된다. 송신측 단말(200)은 수신측 단말(300)에, 통상의 2차원 화상(1개의 카메라에 의해 촬영된 화상)을 송신할 경우, 예를 들면 우안용 화상을 화상 데이터로 해도 된다.
도 9는 입체시 화상이 변환된 예를 나타내는 도면이다. 도 9의 예는, 좌안용 화상 및 우안용 화상을 포함하는 입체시 화상이 사이드 바이 사이드의 1개의 화상의 화상 데이터로 변환된 예를 나타낸다. 변환된 화상에서는, 좌안용 화상이 화상 프레임의 좌측 절반에, 우안용 화상이 화상 프레임의 우측 절반에 배치된다. 도 9에 있어서의 화상이, 사이드 바이 사이드로 변환된 화상의 1프레임이다. 화상의 배치는 도 9의 예에 한정되는 것이 아니다. 예를 들면 좌안용 화상은 화상 프레임의 좌측 절반 전체, 우안용 화상은 화상 프레임의 우측 절반 전체여도 된다.
도 8로 돌아가, 송신측 단말(200)은, 변환된 화상 데이터를, 수신측 단말(300)을 향하여 서버 장치(100)에 송신한다(S107). 송신측 단말(200)은 화상 데이터와 함께, 음성 데이터, 문자 데이터 등을 송신해도 된다. 음성 데이터는, 예를 들면 카메라에 의한 화상과 함께, 입력부(208)의 마이크로폰에 의해 취득된 음성 데이터이다. 화상 데이터 및 음성 데이터에는, 각각 시각 정보가 포함되고, 재생시에 동기(同期)가 취해지게 된다. 문자 데이터는, 예를 들면 송신측 단말(200)의 이용자에 의해 입력부(208)의 키보드 등에 의해 입력된 문자 정보이다. 이들 각종 데이터는 수신측 단말(300)에 있어서 재생된다.
입체시 화상이 동화상일 경우, 송신측 단말(200)은 순차적으로(예를 들면 1프레임마다), 입체시 화상을 입체시용 화상을 포함하는 화상 데이터로 변환하고, 수신측 단말(300)을 향하여 송신한다. 즉, 이 경우, 스텝 S105 이후의 처리가 반복된다.
도 8의 동작 플로우와 같이 하여, 송신측 단말(200)은 수신측 단말(300)에 화상 데이터를 송신한다.
<수신측 단말>
도 10은 수신측 단말의 동작 플로우의 예를 나타내는 도면이다. 도 10의 동작 플로우는, 예를 들면 수신측 단말(300)의 이용자가, 서버 장치(100)에 있어서의 비디오 채팅 서비스의 이용자로서, 서버 장치(100)에 의해 인증됨으로써 개시된다.
수신측 단말(300)은, 서버 장치(100)로부터 송신측 단말(200)의 이용자 정보, 수신측 단말(300)의 이용자 정보를 수신한다(S201). 수신측 단말(300)은 이들 이용자 정보를 수신함으로써, 송신측 단말(200)의 이용자가, 수신측 단말(300)의 이용자와의 통신을 원하고 있음을 인식한다. 수신측 단말(300)의 이용자 정보에는, 송신측 단말(200)의 입체시 화상의 송신 방식의 정보가 포함된다. 수신측 단말(300)은 수신측 단말(300)의 이용자 정보로부터, 송신측 단말(200)의 입체시 화상의 송신 방식의 정보를 추출한다. 수신측 단말(300)은 수신측 단말(300)의 이용자 정보에, 송신측 단말(200)의 입체시 화상의 송신 방식의 정보가 포함되어 있음으로써, 송신측 단말(200)이 당해 송신 방식에 의해 입체시 화상을 송신하려고 하고 있음을 인식한다. 입체시 화상의 송신 방식은, 예를 들면 「side-by-side」이다. 입체시 화상의 송신 방식은 「side-by-side」에 한정되는 것이 아니다. 예를 들면, 화면의 일렬마다 좌안용 화상, 우안용 화상이 배치되도록 하여, 좌안용 화상 및 우안용 화상이 합성되어도 된다.
수신측 단말(300)은 수신측 단말(300)의 이용자에게, 송신측 단말(200)의 이용자가 입체시 화상에 의한 통신을 요구하고 있다는 취지를 통지한다. 수신측 단말(300)은, 예를 들면 출력부(310)의 표시 장치에, 「송신측 단말(200)의 이용자가 입체시 화상에 의한 통신을 요구하고 있다는 취지」를 표시한다. 수신측 단말(300)은, 수신측 단말(300)의 이용자에게, 통신을 요구하고 있는 송신측 단말(200)의 이용자와의 입체시 화상에 의한 통신을 허가할지의 여부를 선택시킨다. 통신을 허가하지 않을 경우, 수신측 단말(300)은, 통신을 허가하지 않는다는 취지의 정보를, 서버 장치(100)를 통해 송신측 단말(200)에 송신한다. 이때, 송신측 단말(200)의 이용자와 수신측 단말(300)의 이용자는 통신할 수 없다.
통신을 허가할 경우, 수신측 단말(300)은 송신측 단말(200)과의 통신을 허가한다는 취지의 정보인 접속 허가 정보를, 서버 장치(100)를 통해, 송신측 단말(200)에 송신한다(S202). 송신측 단말(200)은, 접속 허가 정보를 수신하면, 접속 허가 수신 응답을 수신측 단말(300)에 송신한다. 접속 허가 수신 응답은, 송신측 단말(200)이 접속 허가 정보를 수신했음을 나타내는 정보이다. 수신측 단말(300)은 송신측 단말(200)로부터의 접속 허가 수신 응답을 수신한다(S203).
수신측 단말(300)은 서버 장치(100)로부터의 화상 데이터 등을 수신한다(S204). 수신측 단말(300)은, 예를 들면 화상 데이터와 함께, 음성 데이터, 문자 데이터를 수신해도 된다. 화상 데이터 및 음성 데이터에는, 각각 시각 정보가 포함되고, 재생시에 동기가 취해지게 된다.
수신측 단말(300)은 화상 데이터를 복호하고, 표시 장치에 표시시키는 입체시 화상의 표시 데이터를 생성한다(S205).
도 11은 화상 데이터의 복호, 입체시 화상의 생성을 설명하는 도면이다. 제어부(304)는 전(前)처리부(322), 스캔 어드레스 생성부(324), 비디오 메모리 컨트롤러(326), 렌더링 처리부(328)를 포함한다. 비디오 메모리(332)는 저장부(306)에 포함된다. 전처리부(322)는 판정부로서 동작할 수 있다. 비디오 메모리 컨트롤러(326), 렌더링부(328)는 변환부로서 동작할 수 있다.
송수신부(302)는 화상 데이터를 수신하면, 화상 데이터를 전처리부(332)로 보낸다. 전처리부(332)는 화상 데이터를 복호화(디코딩)한다. 화상 데이터는 송신측 단말(200) 또는 서버 장치(100)에 의해 부호화(인코딩)되어 있다.
전처리부(322)는 디코딩한 화상 데이터로부터 동기 신호를 추출하고, 스캔 어드레스 작성부(324)로 보낸다. 동기 신호는, 화상 데이터와 음성 데이터의 동기를 취하기 위한 신호이다. 화상과 음성의 동기가 취해지지 않으면, 화상과 음성을 출력했을 경우에 시간적으로 어긋남이 생겨, 시청하는 수신측 단말(300)의 이용자에게 위화감을 생기게 한다.
전처리부(322)는 송신측 단말(200)로부터 송신되는 입체시 화상의 송신 방식을 확인한다. 입체시 화상의 송신 방식은 스텝 S201에서 확인되고 있다. 여기에서는, 입체시 화상의 송신 방식이 「sidebyside」인 것으로 한다. 「sidebyside」에서는, 도 9와 같이 1프레임의 화상의 좌측 절반에 좌안용 화상이, 우측 절반에 우안용 화상이 배치된다.
전처리부(322)는 수신한 화상 데이터의 화상을 추출한다. 전처리부(322)는 당해 화상이 입체시용 화상을 포함하는지의 여부를 판정한다. 입체시 화상이 「sidebyside」일 경우, 화상의 좌측 절반(좌안용 화상에 상당하는 부분)과 우측 절반(우안용 화상에 상당하는 부분)은 유사한 것이 된다.
그래서, 전처리부(322)는 다음과 같이 하여, 입체시용 화상을 포함하는지의 여부를 판정할 수 있다. 전처리부(322)는 입체시 화상의 송신 방식에 의거하여, 수신한 화상을 좌안용 화상과 우안용 화상으로 분리한다. 전처리부(322)는 추출한 화상의 좌측 절반(좌안용 화상에 상당하는 부분)과 우측 절반(우안용 화상에 상당하는 부분)을 같은 위치에서 중첩해, 화소값의 차분을 취한다. 전처리부(322)는 화소값의 차분의 합이 소정값 미만이면, 당해 화상이 입체시용 화상을 포함한다고 판정할 수 있다.
또한, 좌안용 화상과 우안용 화상은, 화상에 존재하는 시차(視差)의 영향으로, 같은 위치의 중첩으로는 충분히 입체시용 화상을 포함하는지의 여부를 판정할 수 없을 경우가 있다. 그래서, 전처리부(322)는 다음과 같이 하여, 입체시용 화상을 포함하는지의 여부를 판정해도 된다. 전처리부(322)는 화상의 좌측 절반(좌안용 화상에 상당하는 부분)과 우측 절반(우안용 화상에 상당하는 부분)을 같은 위치에서 중첩해, 양쪽의 화상에 있어서의 화소값의 차분을 취한다. 또한, 전처리부(322)는 화상의 좌측 절반을 평행 이동시켜, 마찬가지로 각 위치에서 차분을 취한다. 연산부(120)는 어느 위치에서, 차분의 합이 소정값 미만일 경우, 당해 화상이 입체시용 화상을 포함한다고 판정할 수 있다. 여기에서 평행 이동시키는 이동량은 소정량 미만으로 한다. 당해 소정량은, 좌안용 화상과 우안용 화상이 입체시용 화상으로서 인식될 수 있는 양으로 한다. 입체시용 화상을 포함하는지의 여부의 판정은, 여기에 든 것에 한정되는 것이 아니다.
전처리부(322)는 화상이 입체시용 화상을 포함한다고 판정했을 경우, 화상을 비디오 컨트롤러(326)에 보낸다. 비디오 컨트롤러(326)는 화상을 좌측 절반(좌안용 화상에 상당하는 부분)과 우측 절반(우안용 화상에 상당하는 부분)으로 분리하고, 좌측 절반을 좌안용 화상, 우측 절반을 우안용 화상으로 하여, 비디오 메모리(332)에 일시적으로 저장한다. 비디오 메모리 컨트롤러(326)는 비디오 메모리(332)에 저장한 좌안용 화상 및 우안용 화상을, 순차적으로 렌더링 처리부(328)에 송신한다. 렌더링 처리부(328)는 좌안용 화상 및 우안용 화상을, 표시 장치에서 입체시 화상으로서 표시시키는 데이터로서 생성한다.
또한, 전처리부(322)는 화상이 입체시용 화상을 포함하지 않는다고 판정했을 경우, 화상을 비디오 컨트롤러(326)에 보낸다. 비디오 컨트롤러(326)는 화상을 분리하지 않고, 그대로 비디오 메모리(332)에 일시적으로 저장한다. 비디오 메모리 컨트롤러(326)는 비디오 메모리(332)에 저장한 화상을, 순차적으로 렌더링 처리부(328)에 송신한다. 렌더링 처리부(328)는 송신된 화상을, 표시 장치에서 통상의 2차원 화상으로서 표시시키는 데이터로서 생성한다.
스캔 어드레스 작성부(324)는 전처리부(322)가 추출한 동기 신호에 의거하여 스캔 어드레스 신호를 작성하고, 비디오 메모리 컨트롤러(326)에 공급한다. 비디오 메모리 컨트롤러(326)는 동기 신호에 의거하여, 화상을 렌더링 처리부(328)에 송신한다.
도 10으로 돌아가, 수신측 단말(300)은 입체시 화상을 표시할 수 있는 표시 장치에, 제어부(304)가 생성한 입체시 화상을 표시한다(S206). 또한, 수신측 단말(300)은, 수신한 음성 데이터를 복호하고, 출력부(110)의 스피커로부터 복호한 음성을 출력한다. 수신측 단말(300)은 음성을 입체시 화상과 동기시켜 출력한다. 수신측 단말(300)은 수신한 문자 데이터를 복호하고, 복호한 문자 정보를 표시 장치에 표시한다.
또한, 입체시 화상이 동화상일 경우, 수신측 단말(300)은, 수신한 화상 데이터를 순차적으로(예를 들면 1프레임마다) 복호하고, 표시 장치에 입체시 화상을 표시한다. 즉, 이 경우 스텝 S204 이후의 처리가 반복된다.
도 10의 동작 플로우와 같이 하여, 수신측 단말(300)은 화상 데이터를 수신하여, 입체시 화상을 표시한다. 또한, 수신측 단말(300)은 수신한 화상 데이터가 입체시용 화상이 아닐 경우, 통상의 2차원 화상으로서 화상을 표시한다.
(변형예)
상기의 정보 처리 시스템(1)은, 송신측 단말(200)로부터의 데이터 등이, 서버 장치(100)에 의해 복수의 수신측 단말(300)에 송신됨으로써, 3개 이상의 단말이 참가하는 비디오 회의 시스템 등에 적용 가능하다. 또한 마찬가지로, 1개의 송신측 단말(200)에 대하여, 복수의 수신측 단말이 존재하는 영상 스트리밍 방송에 대해서도 적용 가능하다.
또한, 송신측 단말(200)은 입체시 화상의 송신 방식을 송신하지 않아도 된다. 수신측 단말(300)은 스텝 S205 및 도 11에서 설명한 것과 마찬가지로 하여, 화상 데이터를 수신했을 때에, 전처리부(322)에서, 화상 데이터가 입체시용 화상을 포함하는지의 여부를 판정할 수 있다. 이때, 송신되어 오는 화상 데이터가 「sidebyside」라고 가정해도 된다. 또한, 전처리부(322)는 몇 가지의 송신 방식을 가정하여, 수신한 화상을 좌안용 화상 및 우안용 화상으로 분리하고, 화상 데이터가 입체시용 화상을 포함하는지의 여부를 판정해도 된다. 이때, 전처리부(322)는 화상 데이터가 하나의 송신 방식이어도, 입체시용 화상을 포함한다고 판정되면, 입체시용 화상을 포함한다고 판정한다.
수신측 단말(300)은, 입체시 화상을 표시 장치에 표시할 때에, 수신측 단말(300)의 이용자에 대하여, 입체시 화상을 표시할지의 여부를 선택시켜도 된다. 이때, 수신측 단말(300)은 표시 장치에 「입체시 화상을 표시할지의 여부」를 선택시킨다는 취지의 표시를 한다. 수신측 단말(300)의 이용자가 입체시 화상을 표시하지 않음을 선택했을 경우, 수신측 단말(300)은, 예를 들면 화상 데이터로부터 우안용 화상을 추출하고, 우안용 화상을 (입체시 화상이 아닌) 통상의 화상으로서 표시 장치에 표시할 수 있다. 이에 따라, 이용자가 입체시 화상의 시청을 원하지 않을 경우, 입체시 화상을 표시하지 않을 수 있다. 또한, 표시 장치에 「입체 화상 전환」 버튼을 표시하고, 이용자가 「입체시 화상」의 표시와 「2차원 화상」의 표시를 임의로 전환할 수 있도록 해도 된다.
수신측 단말(300)의 전처리부(322)가, 송신된 화상 데이터가 입체시용 화상을 포함하지 않는다고 판단했을 때, 삭제해도 된다.
도 12는 수신측 단말의 표시 장치의 표시예(화면예)를 나타내는 도면이다. 도 12의 예에서는, 표시 장치는, 화면에 송신측 단말(200)로부터의 화상, 자(自)장치(수신측 단말(300))에 의한 화상, 문자 데이터, 문자 입력 영역, 및 「입체시 화상 전환」 버튼을 표시한다. 수신측 단말(300)의 이용자에 의해, 「입체시 화상 전환」 버튼이 선택됨으로써, 「입체시 화상」의 표시와 「2차원 화상」의 표시를 전환할 수 있다. 버튼의 선택은, 입력부(308)의 포인팅 디바이스, 키보드 등에 의해 접수될 수 있다.
수신측 단말(300)은, 2차원 화상의 표시시, 예를 들면 입체시 화상의 우안용 화상을 표시함으로써, 2차원 화상의 표시로 한다. 이때, 비디오 메모리 컨트롤러(326)는, 비디오 메모리(332)에 저장한 우안용 화상을, 순차적으로 렌더링 처리부(328)에 송신한다. 렌더링 처리부(328)는, 우안용 화상을, 표시 장치에서 2차원 화상으로서 표시시키는 데이터로서 생성한다.
수신측 단말(300)은, 입체시 화상을 수신했을 경우에도, 수신측 단말(300)의 이용자가 입체시 화상의 표시를 원하지 않을 경우, 입체시 화상을 2차원 화상으로 하여 표시를 할 수 있다.
(실시형태의 작용 효과)
송신측 단말(200)은 수신측 단말(300)에 송신하는 좌안용 화상 및 우안용 화상을 포함하는 입체시 화상을 준비한다. 송신측 단말(200)은, 좌안용 화상 및 우안용 화상을 1개의 화상 데이터(예를 들면 사이드 바이 사이드의 화상 데이터)로 변환한다. 송신측 단말(200)은 변환한 화상 데이터를 서버 장치(100)를 통해 수신측 단말(300)에 송신한다. 서버 장치(100)는 송신측 단말(200)로부터 송신된 화상 데이터를, 1개의 화상 데이터로서 수신측 단말(300)에 송신한다. 수신측 단말(300)은 수신한 화상 데이터에 대해서, 입체시용 화상을 포함하는지의 여부를 판정한다. 수신측 단말(300)은 입체시용 화상을 포함할 경우, 입체시 화상으로 변환하여 표시 장치에 표시한다.
본 실시형태의 시스템에 의하면, 서버 장치(100)가 입체시 화상 배신(配信)에 대응하고 있지 않아도, 송신측 단말(200)과 수신측 단말 사이에서, 2차원 화상의 화상 데이터에 의해, 입체시 화상의 송수신이 가능하다. 즉, 본 실시형태의 시스템에 의하면, 기존의 비디오 채팅 서비스를 제공하는 서버 장치(100)의 구성을 변경하지 않고, 송신측 단말(200)로부터 수신측 단말(300)에, 입체시 화상을 송신할 수 있다.
〔컴퓨터 판독 가능한 기록 매체〕
컴퓨터 그 밖의 기계, 장치(이하, 컴퓨터 등)에 상기 어느 기능을 실현시키는 프로그램을 컴퓨터 등이 판독 가능한 기록 매체에 기록할 수 있다. 그리고, 컴퓨터 등에, 이 기록 매체의 프로그램을 읽어들여 실행시킴으로써, 그 기능을 제공시킬 수 있다.
여기에서, 컴퓨터 등이 판독 가능한 기록 매체란, 데이터나 프로그램 등의 정보를 전기적, 자기적, 광학적, 기계적, 또는 화학적 작용에 의해 축적하고, 컴퓨터 등으로부터 판독할 수 있는 기록 매체를 말한다. 이와 같은 매체 내에는, CPU, 메모리 등의 컴퓨터를 구성하는 요소를 마련하여, 그 CPU에 프로그램을 실행시켜도 된다.
또한, 이와 같은 기록 매체 중 컴퓨터 등으로부터 분리 가능한 것으로서는, 예를 들면 플렉시블 디스크, 광자기 디스크, CD-ROM, CD-R/W, DVD, DAT, 8㎜ 테이프, 메모리 카드 등이 있다.
또한, 컴퓨터 등에 고정된 기록 매체로서 하드디스크 드라이브나 ROM 등이 있다.
1 : 정보 처리 시스템 10 : 네트워크
100 : 서버 장치 102 : 송수신부
104 : 제어부 106 : 저장부
200 : 송신측 단말 202 : 송수신부
204 : 제어부 206 : 저장부
208 : 입력부 210 : 출력부
300 : 수신측 단말 302 : 송수신부
304 : 제어부 306 : 저장부
308 : 입력부 310 : 출력부
1000 : 정보 처리 장치 1002 : CPU
1004 : 메모리 1006 : 기억부
1008 : 입력부 1010 : 출력부
1012 : 통신부

Claims (5)

  1. 2차원 화상 데이터를 수신하는 수신부와,
    상기 수신부가 수신한 상기 2차원 화상 데이터가 입체시(立體視)용 화상을 포함하는지의 여부를 판정하는 판정부와,
    상기 판정부가 상기 2차원 화상 데이터가 입체시용 화상을 포함한다고 판정했을 경우, 상기 2차원 화상 데이터를 입체시 화상으로 변환하는 변환부와,
    상기 변환부에 의해 변환된 입체시 화상을 표시하는 표시부를 구비하는 정보 처리 장치.
  2. 제1항에 있어서,
    입체시 화상을 표시할지의 여부를 접수하는 접수부를 더 포함하고,
    상기 판정부가 상기 2차원 화상 데이터가 입체시용 화상을 포함한다고 판정하고, 상기 접수부가 입체시 화상을 표시하지 않는다고 접수했을 경우, 상기 변환부는, 변환한 상기 입체시 화상에 포함되는 좌안(左眼)용 화상 및 우안(右眼)용 화상 중 한쪽의 화상을 추출하고,
    상기 표시부는 상기 변환부가 추출한 화상을 표시하는 정보 처리 장치.
  3. 제1항 또는 제2항에 있어서,
    상기 수신부는 화상 데이터와 함께 송신되는 송신 방식 정보를 수신하고,
    상기 변환부는 상기 송신 방식 정보에 의거하여 상기 2차원 화상 데이터를 입체시 화상으로 변환하는 정보 처리 장치.
  4. 컴퓨터가,
    2차원 화상 데이터를 수신하는 단계,
    상기 2차원 화상 데이터가 입체시용 화상을 포함하는지의 여부를 판정하는 단계,
    상기 2차원 화상 데이터가 입체시용 화상을 포함한다고 판정했을 경우, 상기 2차원 화상 데이터를 입체시 화상으로 변환하는 단계,
    상기 변환된 입체시 화상을 표시 장치에 표시시키는 단계를 실행하는 정보 처리 방법.
  5. 컴퓨터가,
    2차원 화상 데이터를 수신하는 단계,
    상기 2차원 화상 데이터가 입체시용 화상을 포함하는지의 여부를 판정하는 단계,
    상기 2차원 화상 데이터가 입체시용 화상을 포함한다고 판정했을 경우, 상기 2차원 화상 데이터를 입체시 화상으로 변환하는 단계,
    상기 변환된 입체시 화상을 표시 장치에 표시시키는 단계를 실행하기 위한 정보 처리 프로그램을 저장하는 컴퓨터 판독 가능 기억 매체.
KR1020120034232A 2011-05-06 2012-04-03 정보 처리 장치, 정보 처리 방법, 및 컴퓨터 판독 가능 기억 매체 KR101306671B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JPJP-P-2011-103589 2011-05-06
JP2011103589A JP5790132B2 (ja) 2011-05-06 2011-05-06 情報処理装置、情報処理方法、情報処理プログラム

Publications (2)

Publication Number Publication Date
KR20120125158A KR20120125158A (ko) 2012-11-14
KR101306671B1 true KR101306671B1 (ko) 2013-09-10

Family

ID=47089979

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120034232A KR101306671B1 (ko) 2011-05-06 2012-04-03 정보 처리 장치, 정보 처리 방법, 및 컴퓨터 판독 가능 기억 매체

Country Status (3)

Country Link
US (1) US20120281066A1 (ko)
JP (1) JP5790132B2 (ko)
KR (1) KR101306671B1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IN2015DN00797A (ko) * 2012-08-08 2015-07-03 Ericsson Telefon Ab L M
US9977495B2 (en) 2014-09-19 2018-05-22 Utherverse Digital Inc. Immersive displays
CN109947240B (zh) * 2019-01-28 2023-05-23 深圳市美丽加科技有限公司 显示控制方法、终端及计算机可读存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000075982A (ko) * 1997-03-07 2000-12-26 다카노 야스아키 디지탈 방송 수신기 및 디스플레이 장치
US20100053306A1 (en) * 2008-09-02 2010-03-04 Yasutaka Hirasawa Image Processing Apparatus, Image Processing Method, and Program

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10257525A (ja) * 1997-03-07 1998-09-25 Sanyo Electric Co Ltd ディジタル放送受信機
JPH10257526A (ja) * 1997-03-10 1998-09-25 Sanyo Electric Co Ltd ディジタル放送受信機
US7634531B2 (en) * 2002-01-23 2009-12-15 Ali Abdolsalehi Interactive internet browser based media broadcast
US20030182428A1 (en) * 2002-03-19 2003-09-25 Jiang Li Peer-to-peer (P2P) communication system
JP2004104368A (ja) * 2002-09-06 2004-04-02 Sony Corp 画像データ処理方法、画像データ処理プログラム及び立体画像表示装置
JP4230331B2 (ja) * 2003-10-21 2009-02-25 富士フイルム株式会社 立体視画像生成装置および画像配信サーバ
KR100640487B1 (ko) * 2005-09-08 2006-11-01 삼성전자주식회사 이동 통신 단말기의 화상 통화 서비스 수행 방법
US20080303832A1 (en) * 2007-06-11 2008-12-11 Samsung Electronics Co., Ltd. Method of generating two-dimensional/three-dimensional convertible stereoscopic image bitstream and method and apparatus for displaying the same
US8538134B2 (en) * 2007-10-04 2013-09-17 Samsung Electronics Co., Ltd. Method and apparatus for receiving and generating image data stream including parameters for displaying local three dimensional image
JP5338166B2 (ja) * 2008-07-16 2013-11-13 ソニー株式会社 送信装置、立体画像データ送信方法、受信装置および立体画像データ受信方法
JP4974984B2 (ja) * 2008-09-11 2012-07-11 三菱電機株式会社 映像記録装置及び方法
JP2010169777A (ja) * 2009-01-21 2010-08-05 Sony Corp 画像処理装置、画像処理方法およびプログラム
GB2479410A (en) * 2010-04-09 2011-10-12 Tektronix Uk Ltd Measuring perceived stereoscopic visual depth
JP2011228969A (ja) * 2010-04-21 2011-11-10 Hitachi Consumer Electronics Co Ltd 映像処理装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000075982A (ko) * 1997-03-07 2000-12-26 다카노 야스아키 디지탈 방송 수신기 및 디스플레이 장치
US20100053306A1 (en) * 2008-09-02 2010-03-04 Yasutaka Hirasawa Image Processing Apparatus, Image Processing Method, and Program

Also Published As

Publication number Publication date
JP2012235384A (ja) 2012-11-29
US20120281066A1 (en) 2012-11-08
KR20120125158A (ko) 2012-11-14
JP5790132B2 (ja) 2015-10-07

Similar Documents

Publication Publication Date Title
AU2012337054B2 (en) Transmission management apparatus, program, transmission management system, and transmission management method
JP6260596B2 (ja) 伝送端末、データ伝送方法、及びプログラム
US10656897B2 (en) Communication apparatus, control method therefor, and non-transitory computer-readable storage medium
JP5859464B2 (ja) 携帯用端末機において立体映像データを生成するための装置及びその方法
KR102157634B1 (ko) 영상 획득 방법 및 로컬 엔드포인트 호스트 장치
CN105247881B (zh) 信息处理设备、显示控制方法以及程序
US20130106997A1 (en) Apparatus and method for generating three-dimension data in portable terminal
JP6341023B2 (ja) 端末装置、データ送信方法およびプログラム
JP6566616B2 (ja) 通信装置、その制御方法、およびプログラム
US20160100011A1 (en) Content processing apparatus and content processing method thereof
KR101306671B1 (ko) 정보 처리 장치, 정보 처리 방법, 및 컴퓨터 판독 가능 기억 매체
US20230119757A1 (en) Session Description for Communication Session
US10616724B2 (en) Method, device, and non-transitory computer-readable recording medium for supporting relay broadcasting using mobile device
EP4250087A1 (en) Method for displaying shared screen content in conference, device, and system
JP2014022947A (ja) 立体視映像伝送装置、立体視映像伝送方法及び立体視映像処理装置
JP2016178355A (ja) 通信装置、通信システム、通信装置の制御方法およびプログラム
JP2018198074A (ja) 通信装置、その制御方法、およびプログラム
KR102112522B1 (ko) 디지털 텔레비전을 이용한 소셜 네트워크 서비스 제공 장치 및 방법
JP2019165442A (ja) 通信装置、その制御方法、およびプログラム
CN116962640A (zh) 基于带屏终端的监控推流方法、装置及带屏终端
CN115695711A (zh) 一种处理方法及采集设备
JP2011066670A (ja) 画像通信システムおよび送信端末
JP2016225920A (ja) 撮像装置、クライアント装置及びそれらの制御方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160818

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170818

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180816

Year of fee payment: 6