KR100952574B1 - 로봇 기반 입체 디스플레이 장치 및 방법 - Google Patents

로봇 기반 입체 디스플레이 장치 및 방법 Download PDF

Info

Publication number
KR100952574B1
KR100952574B1 KR1020070136795A KR20070136795A KR100952574B1 KR 100952574 B1 KR100952574 B1 KR 100952574B1 KR 1020070136795 A KR1020070136795 A KR 1020070136795A KR 20070136795 A KR20070136795 A KR 20070136795A KR 100952574 B1 KR100952574 B1 KR 100952574B1
Authority
KR
South Korea
Prior art keywords
unit
information
image
robot
moving
Prior art date
Application number
KR1020070136795A
Other languages
English (en)
Other versions
KR20090068977A (ko
Inventor
강훈
조용군
서우찬
이용준
박민수
Original Assignee
중앙대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 중앙대학교 산학협력단 filed Critical 중앙대학교 산학협력단
Priority to KR1020070136795A priority Critical patent/KR100952574B1/ko
Publication of KR20090068977A publication Critical patent/KR20090068977A/ko
Application granted granted Critical
Publication of KR100952574B1 publication Critical patent/KR100952574B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q2209/00Arrangements in telecontrol or telemetry systems
    • H04Q2209/40Arrangements in telecontrol or telemetry systems using a wireless architecture
    • H04Q2209/43Arrangements in telecontrol or telemetry systems using a wireless architecture using wireless personal area networks [WPAN], e.g. 802.15, 802.15.1, 802.15.4, Bluetooth or ZigBee

Abstract

로봇 기반 입체 디스플레이 장치 및 방법이 개시된다. 상기 로봇 기반 입체 디스플레이 장치는 로봇 기반 입체 디스플레이 장치는 영상정보를 수집하는 카메라유닛, 상기 카메라유닛의 이동정보를 수집하는 센서유닛, 이동 정보 및 상기 영상 정보를 송신하는 송신유닛, 이동 정보 및 상기 영상 정보를 수신하는 수신유닛, 상기 영상 정보를 가공하여 3차원 가상 입체영상을 생산하여 제공하는 3차원프로세서, 상기 입체영상을 제시하는 디스플레이유닛 및 상기 이동정보에 대응되는 방향으로 상기 입체영상을 이동시키는 메인 프로세서를 포함한다. 또한, 상기 로봇 기반 입체 디스플레이 방법은 로봇 기반 입체 디스플레이 방법은 로봇 기반 입체 디스플레이 장치를 제공하는 단계, 카메라유닛에서 영상 정보를 수집하는 단계, 상기 영상 정보를 수집하는 카메라유닛의 이동 정보를 감지하는 단계, 상기 영상 정보 및 상기 이동 정보를 송신하는 단계, 상기 영상 정보 및 상기 이동 정보를 수신하는 단계, 상기 영상 정보를 가공하여 3차원 가상 입체 영상을 생산하여 제공하는 단계, 상기 입체 영상을 제시하는 단계, 상기 이동 정보에 대응되는 방향으로 상기 입체 영상을 이동시키는 단계, 이동된 상기 입체 영상을 제시하는 단계를 포함한다. 따라서, 화면에 보이는 3차원 입체영상으로 표현되는 가상의 물체를 영상 정보를 수집하는 카메라의 이동에 따라 실제 물체처럼 다른 각도에서 볼 수 있는 효과가 있다.
입체 디스플레이, 센서, 회전, 이동, 로봇

Description

로봇 기반 입체 디스플레이 장치 및 방법{STEREOSCOPIC DISPLAY APPARATUS AND METHOD BASED ON ROBOT}
본 발명은 로봇 기반 입체 디스플레이 장치에 관한 것으로, 보다 상세하게는 로봇에 장착된 카메라유닛의 이동에 따라 원격지의 디스플레이유닛이 동시에 연동되어 이동되고, 또한, 디스플레이에 제시되는 3차원 가상 입체 영상도 이동하여 실제 물체를 보는 것과 유사한 효과를 내는 로봇 기반 입체 영상 디스플레이 장치 및 방법에 관한 것이다.
생동감 있고 현실적인 3차원 입체 영상을 구현하는 기술은 오래 전부터 여러 가지 방식들이 꾸준히 연구 개발되고 있는 분야이다. 특히 최근 인터넷과 이동 통신을 비롯한 정보통신 분야의 폭발적인 성장은 개개인에게 전달되는 정보의 양과 질을 대폭 향상시키고 있으며, 이러한 정보의 가장 효과적인 전달 및 표현 방법으로서 3차원 디스플레이 기술이 주목 받고 있다.
디스플레이에 세계적인 기술력을 보유한 기술선진국에서는 3차원 디스플레이 산업의 경제적 가치를 높이 평가하여 핵심기술과 독창적인 시스템을 개발하기 위해 많은 연구와 투자를 하고 있다. 3차원 디스플레이는 현재 특수 분야인 의료용, 게 임기, CAD 용 등에 제한적으로 응용되고 있으나 전 세계적인 연구 동향을 보면 머지않아 3D 모니터, 3D TV 등 3차원 관련 제품의 시장규모가 급속히 성장할 것으로 예상된다.
이에 따라 보다 현실적이고 생동감 있는 3차원 디스플레이 기술의 개발이 그 어느 때보다 절실히 요구되고 있으며, 이러한 요구에 부응하여 국내외의 여러 대학과 기업들이 새로운 3차원 디스플레이 기술을 개발하기 위하여 노력하고 있다.
3차원 디스플레이 기술은 크게 3차원 입체 영상을 관찰하기 위해 관찰자가 특수한 안경을 착용해야 하는 안경식(또는 stereoscopy 방식)과 특수한 안경을 착용하지 않고서도 3차원 영상을 관찰할 수 있는 무안경식(또는 autostereoscopy 방식)의 두 범주로 구분할 수 있다. 안경식 3차원 디스플레이는 관측자의 좌안과 우안에 약간 다른 영상을 제공하여 그 시차(parallax)로 인해 깊이감을 느끼게 한다. 이 때 좌안 영상과 우안 영상을 분리하는 방법에 따라 액정 셔터 방식, 편광 안경 방식 등으로 나뉘며 이러한 안경식 3차원 디스플레이는 이미 상용화되어 많은 제품이 판매되고 있고, 놀이공원 등에서도 이러한 방식을 채용한 3차원 극장이 운영되고 있다.
이러한 안경식 3차원 디스플레이는 실제로 3차원 이미지를 공간상에 만드는 것은 아니지만 관측자에게 정확한 깊이감을 줄 수 있는 장점이 있어 3차원 CAD(computer-aided design) 등에 응용이 연구되고 있으며 HMD(head-mounted display) 등에서도 이용되고 있다.
또한, 완전 3차원 방식이라고 하여, 공간상에 물체를 실제 물체와 유사하게 가상의 체적을 가지도록 디스플레이 하는 인테그럴 포토그래피(IP), 체적형 디스플레이 또는 홀로그래피와 같은 방식으로 3차원 영상을 표현하는 입체 디스플레이 장치들이 개발되어 왔다.
그러나, 종래의 3차원 입체 영상 디스플레이 장치는 다음과 같은 문제점이 있다.
첫 번째로, 종래의 입체 디스플레이 장치는 화면에 보이는 3차원 입체영상으로 표현되는 가상의 물체를 실제 물체처럼 다른 각도에서 볼 수 없는 문제점이 있다.
두 번째로, 영상 정보를 수집하는 카메라의 이동에 따라 입체 영상을 다른 각도에서 관찰할 수 없는 문제점이 있다.
세 번째로, 디스플레이 되는 장치가 고정되어 있으므로, 입체 영상을 실제로 관찰하는 것과 같은 현장감을 느낄 수 없는 문제점이 있다.
네 번째로, 완전 3차원 방식으로 3차원 영상을 제시하는 장치를 제조하는 경우 상대적으로 고비용으로 제작하게 되는 문제점이 있다.
상술한 문제점을 해결하기 위한 본 발명의 일 목적은 화면에 보이는 3차원 입체영상으로 표현되는 가상의 물체를 실제 물체처럼 다른 각도에서 볼 수 있는 로봇 기반 입체 디스플레이 장치 및 방법을 제공함에 있다.
본 발명의 다른 목적은 영상 정보를 수집하는 카메라의 이동에 따라 입체 영상을 다른 각도에서 관찰할 수 있는 로봇 기반 입체 디스플레이 장치 및 방법을 제공함에 있다.
본 발명의 또 다른 목적은 입체 영상을 실제로 관찰하는 것과 같은 현장감을 느낄 수 있는 로봇 기반 입체 디스플레이 장치 및 방법을 제공함에 있다.
본 발명의 또 다른 목적은 상대적으로 저비용구조로 제조될 수 있는 로봇 기반 입체 디스플레이 장치 및 방법을 제공함에 있다.
상술한 본 발명의 목적들을 달성하기 위한 본 발명의 바람직한 실시예에 따르면, 로봇 기반 입체 디스플레이 장치는 영상정보를 수집하는 카메라유닛, 상기 카메라유닛의 이동정보를 수집하는 센서유닛, 이동 정보 및 상기 영상 정보를 송신하는 송신유닛, 이동 정보 및 상기 영상 정보를 수신하는 수신유닛, 상기 영상 정보를 가공하여 3차원 가상 입체영상을 생산하여 제공하는 3차원프로세서, 상기 입체영상을 제시하는 디스플레이유닛 및 상기 이동정보에 대응되는 방향으로 상기 입체영상을 이동시키는 메인 프로세서를 포함한다.
여기서, 상기 이동 정보는 상기 카메라유닛의 위치 변화에 대응되는 이동거리, 이동 방향, 이동 속도, 회전거리, 회전 방향, 회전 각도 또는 회전 속도 중 적어도 하나를 포함한다.
또한, 상기 센서유닛은 각속도 센서, 각도 센서, 변위 센서, 속도 센서, 가속도 센서 또는 위치 센서 중 적어도 하나로 구비되는 것이 바람직하다.
그리고, 상기 송신유닛 및 상기 수신유닛은 유선 통신망, 무선 통신망, 적외선통신(IrDA), 지그비(ZigBee), 블루투스(Bluetooth) 또는 전파식별(RFID) 중 적어도 하나의 방식으로 상기 정보들을 송수신하는 것이 더욱 바람직하다.
상술한 본 발명의 목적들을 달성하기 위한 본 발명의 바람직한 실시예에 따르면, 로봇 기반 입체 디스플레이 방법은 로봇 기반 입체 디스플레이 장치를 제공하는 단계, 카메라유닛에서 영상 정보를 수집하는 단계, 상기 영상 정보를 수집하는 카메라유닛의 이동 정보를 감지하는 단계, 상기 영상 정보 및 상기 이동 정보를 송신하는 단계, 상기 영상 정보 및 상기 이동 정보를 수신하는 단계, 상기 영상 정보를 가공하여 3차원 가상 입체 영상을 생산하여 제공하는 단계, 상기 입체 영상을 제시하는 단계, 상기 이동 정보에 대응되는 방향으로 상기 입체 영상을 이동시키는 단계, 이동된 상기 입체 영상을 제시하는 단계를 포함한다.
상술한 본 발명의 목적들을 달성하기 위한 본 발명의 바람직한 다른 실시예에 따르면, 로봇 기반 입체 디스플레이 장치는 영상정보 및 이동 정보를 수집하여 송신하는 로봇유닛, 상기 영상정보 및 상기 이동정보를 수신하는 수신유닛, 상기 영상 정보를 가공하여 3차원 가상 입체 영상을 생산하여 제공하는 3차원 프로세서, 상기 입체영상을 제시하는 디스플레이유닛, 상기 디스플레이유닛을 상기 이동정보에 대응되는 방향으로 이동시키는 구동유닛 및 상기 이동정보에 대응되는 방향으로 상기 입체영상을 이동시키는 메인프로세서를 포함한다.
여기서, 상기 로봇유닛은 영상 정보를 수집하는 카메라유닛, 상기 카메라유닛을 이동시키는 이동유닛, 상기 카메라유닛의 이동 정보를 감지하는 센서유닛 및 상기 영상 정보 및 상기 이동 정보를 송신하는 송신유닛을 포함하는 것이 바람직하며, 또한, 상기 구동유닛은 상기 디스플레이유닛을 회전 이동시키는 회동부 및 상기 디스플레이유닛을 직선 이동시키는 축이동부를 포함하는 것이 바람직하며, 이 때, 상기 회동부는 상기 디스플레이유닛을 1축 회전시키는 제 1회동부재, 상기 1축에 직교하는 방향의 2축을 중심으로 상기 디스플레이유닛을 회전시키는 제 2회동부재를 포함한다.
또한, 상기 회동부는 상기 1축과 상기 2축에 의해 형성되는 가상 평면의 접선이 되는 3축을 중심으로 상기 디스플레이유닛을 회전시키는 제 3회동부재를 더 포함하는 것도 가능하다.
또한, 상기 디스플레이유닛은 편광필터를 더 포함하는 것이 바람직하며, 이 때, 상기 편광 필터는 상기 입체 영상을 기 설정된 일정 각도 내에서만 관찰할 수 있도록 상기 디스플레이 유닛의 시야각을 조절하도록 구비되는 것이 더욱 바람직하다.
상술한 본 발명의 목적들을 달성하기 위한 본 발명의 바람직한 다른 실시예에 따르면, 로봇 기반 입체 디스플레이 방법은 로봇 기반 입체 디스플레이 장치를 제공하는 단계, 디스플레이유닛에서 영상 정보를 수집하는 단계, 상기 디스플레이유닛의 이동 정보를 감지하는 단계, 상기 영상 정보 및 상기 이동 정보를 송수신하는 단계, 상기 영상 정보를 가공하여 3차원 가상 입체 영상을 생산하여 제공하는 단계, 상기 입체 영상을 디스플레이유닛에 제시하는 단계, 상기 이동 정보에 따라 상기 디스플레이유닛을 이동시키는 단계, 상기 이동정보에 대응되는 방향으로 상기 입체 영상을 이동시키는 단계 및 이동된 상기 입체 영상을 상기 디스플레이유닛에 제시하는 단계를 포함한다.
또한, 상기 디스플레이유닛을 이동시키는 단계는 상기 디스플레이유닛을 이동하는 한계를 설정하는 단계, 상기 디스플레이유닛이 상기 한계까지 도달했는지 판단하는 단계, 상기 한계까지 도달한 경우에는 기 설정된 장소로 상기 디스플레이유닛을 이동시키는 초기화 단계를 포함하는 것이 바람직하다.
상술한 본 발명의 목적들을 달성하기 위한 본 발명의 바람직한 또 다른 실시예에 따르면, 로봇 기반 입체 디스플레이 장치는 영상정보 및 이동 정보를 수집하여 송신하는 로봇유닛, 상기 영상정보 및 상기 이동정보를 수신하는 수신유닛, 상기 영상 정보를 가공하여 3차원 가상 입체 영상을 생산하여 제공하는 3차원 프로세서, 상기 입체영상을 제시하는 디스플레이유닛, 상기 디스플레이유닛을 상기 이동정보에 따라 이동시키는 구동유닛, 이동하는 상기 디스플레이유닛의 위치 정보를 감지하는 구동 센서 및 상기 구동 센서에서 감지된 상기 위치정보에 대응되는 방향으로 상기 입체영상을 이동시키는 메인프로세서를 포함한다.
이 때, 상기 위치정보는 상기 디스플레이유닛의 위치 변화에 대응되는 이동 거리, 이동 방향, 이동 속도, 회전 거리, 회전 방향, 회전 각도 또는 회전 속도 중 적어도 하나를 포함하는 것이 바람직하다.
또한, 상기 구동 센서는 각속도 센서, 각도 센서, 변위 센서, 속도 센서, 가속도 센서, 레벨 센서 또는 위치 센서 중 적어도 하나로 구비되는 것이 더욱 바람직하다.
상술한 본 발명의 목적들을 달성하기 위한 본 발명의 바람직한 또 다른 실시예에 따르면, 로봇 기반 입체 디스플레이 방법은 로봇 기반 입체 디스플레이 장치를 제공하는 단계, 영상 정보 및 이동 정보를 수집하는 단계, 상기 영상 정보 및 상기 이동 정보를 송수신하는 단계, 상기 영상 정보를 가공하여 3차원 가상 입체 영상을 생산하여 제공하는 단계, 상기 입체 영상을 디스플레이유닛에 제시하는 단계, 상기 이동 정보에 따라 상기 디스플레이유닛을 이동시키는 단계, 상기 디스플레이유닛의 위치 정보를 감지하는 단계, 상기 위치정보에 대응되는 방향으로 상기 입체 영상을 이동시키는 단계, 이동된 상기 입체 영상을 상기 디스플레이유닛에 제시하는 단계를 포함한다.
이 때, 상기 송수신하는 단계는 유선 통신망 또는 무선 통신망 중 적어도 하나의 방식으로 송수신하는 것이 더욱 바람직하다.
본 발명에 따르면, 화면에 보이는 3차원 입체영상으로 표현되는 가상의 물체를 실제 물체처럼 다른 각도에서 볼 수 있는 효과가 있다.
또한, 영상 정보를 수집하는 카메라의 이동에 따라 입체 영상을 다른 각도에 서 관찰할 수 있는 이점이 있다.
또한, 디스플레이 장치와 입체 영상을 실제로 관찰하는 것과 같은 현장감을 느낄 수 있는 이점이 있다.
특히, 카메라의 이동에 따라 디스플레이 장치도 동시에 연동하여 이동함으로써 실제로 이동하면서 물체를 관찰하는 것과 유사한 효과를 기대할 수 있다.
또한, 입체 영상을 표시하기 위한 완전 3D 입체로 표현하지 않고, 기존의 디스플레이 장치와 센서를 이용하여 제조함으로써 상대적으로 저비용구조로 제조될 수 있는 효과가 있다.
또한, 원격지에 떨어진 물체를 실제로 보는 것과 유사하게 관찰할 수 있는 효과를 기대할 수 있으므로, 전자 상거래를 이용한 실시간 상품 소개나 각종 전시회 또는 시연회 등 여러 행사에서 효율적으로 사용할 수 있는 이점이 있다.
또한, 심해의 공간이나, 우주의 공간과 같은 인간이 활동할 수 없거나, 도달하기 용이하지 않은 영역에 있는 물체를 실제로 보는 것과 유사하게 관찰할 수 있는 효과가 있으므로, 지형 탐사 목적과 같은 특수 목적을 위해 용이하게 사용할 수 있는 이점이 있다.
특히, 교육을 목적으로 교육생들이 실제로 접하기 힘든 물체, 예컨대, 인체에 유해한 방사능 물체, 또는 고가의 물건과 같은 물체를 3차원 가상 입체 영상을 이용하여 실제 보는 것과 유사한 시각효과를 얻을 수 있는 효과가 있다.
또한, 편광필터를 구비하여 디스플레이 유닛의 정면에서만 입체 영상을 관찰할 수 있도록 함으로써, 상기 디스플레이 유닛의 이동과 대응되는 방향으로 사용자 가 이동하여야 하므로 상대적으로 더 높은 현실감을 기대할 수 있는 이점이 있다.
이하 첨부된 도면들을 참조하여 본 발명의 바람직한 실시예를 상세하게 설명하지만, 본 발명이 실시예에 의해 제한되거나 한정되는 것은 아니다. 참고로, 이하 설명에서는 구성 및 기능이 거의 동일하여 동일하게 취급될 수 있는 요소는 동일한 참조번호로 특정될 수 있다.
1실시예
본 발명의 제 1실시예에 따른 로봇 기반 입체 디스플레이 장치를 설명하면 다음과 같다. 도 1은 본 발명의 로봇 기반 입체 디스플레이 장치의 구조를 도시한 블록도이다.
이에 도시된 바와 같이, 상기 로봇 기반 입체 디스플레이 장치(10)는 카메라유닛(110), 센서유닛(120), 송신유닛(130), 수신유닛(210), 3차원 프로세서(220), 디스플레이유닛(230) 및 메인 프로세서(240)를 포함한다.
상기 카메라유닛(110)은 영상정보를 수집하도록 일반적으로 상용되는 카메라로 구비되나, 이에 한정되거나 제한되는 것은 아니며, 예를 들면 화상을 전기적 신호로 전환시켜 녹화하는 비디오 카메라로 구비되어 동영상을 상기 영상정보로 수집하도록 구비되는 것도 가능하다.
상기 센서유닛(120)은 상기 카메라유닛(110)의 이동 정보를 감지하도록 구비된다. 이를 위하여 상기 센서유닛(120)은 상기 카메라유닛(110)의 회전에 대한 정 보를 감지하도록, 각속도 센서, 각도 센서 또는 변위센서 중 적어도 하나로 구비되고, 직선 이동을 감지하도록 변위센서, 속도센서, 가속도 센서 또는 위치 센서 중 적어도 하나로 구비된다.
즉, 상기 센서유닛(120)은 상기 카메라유닛(110)의 움직임을 좌표화하고, 그 방향을 감지하여 상기 이동정보를 감지한다. 이 때, 상기 이동정보는 상기 카메라유닛(110)의 위치 변화에 대응되는 이동거리, 이동 방향, 이동 속도, 회전거리, 회전 방향, 회전 각도 또는 회전 속도 중 적어도 하나를 포함하도록 한다.
상기 송신유닛(130)은 상기 센서유닛(120)에서 감지된 상기 이동정보와 상기 카메라유닛(110)에서 수집된 상기 영상정보를 별도로 떨어져 원격지에 위치한 상기 수신유닛(210)에 송신하도록 일반적으로 상용되는 송신기(transmitter)로 구비된다. 이에 따라, 상기 수신유닛(210)은 상기 송신유닛(130)에서 송신된 상기 이동정보 및 상기 영상 정보를 수신하도록 일반적으로 상용되는 수신기(receiver)로 구비된다.
이 때, 상기 송신유닛(130) 및 상기 수신유닛(210)은 상기 이동 정보 및 상기 영상정보를 유선 통신망, 무선 통신망, 적외선통신(IrDA), 지그비(ZigBee), 블루투스(Bluetooth) 또는 전파식별(RFID) 중 적어도 하나의 통신 방식으로 송수신하도록 구비된다.
여기서, 상기 송신유닛(130)과 상기 수신유닛(210)은 일반적으로 일정한 거리가 떨어져 원격지에 위치하게 되기 때문에 상기 통신 방식 중 여러 가지 종류를 병행하여 사용되는 것도 가능하다.
상기 3차원 프로세서(220)는 상기 영상정보를 가공하여 3차원 가상 입체 영상을 생산하여 제공하도록 일반적으로 상용되는 3차원 영상 생산용 마이크로 프로세서로 구비된다. 즉, 상기 카메라유닛(110)에서 제공되는 영상 정보의 종류나 규격신호와 관계없이 상기 3차원 가상 입체 영상을 생산할 수 있도록 구비된다.
그리고, 상기 디스플레이유닛(230)은 3차원 가상 입체영상을 제시하도록, 일반적으로 상용되는 액정디스플레이(LCD), 브라운관(CRT) 또는 플라즈마 디스플레이 패널(PDP) 중 적어도 하나로 구비되나, 이에 한정되거나 제한되는 것은 아니며, 예를 들면, 발광다이오드(LED) 또는 유기다이오드(OLED)로 구비되는 것도 가능하며, 3차원 입체영상을 표시할 수 있는 형태라면 자유롭게 변경가능함은 물론이다.
상기 메인 프로세서(240)은 상기 이동정보에 대응되는 방향으로 상기 입체 영상을 이동시키도록 일반적으로 상용되는 마이크로 프로세서로 구비된다. 즉, 상기 카메라유닛(110)이 이동하게 되면, 상기 센서유닛(120)에서 상기 이동을 감지하게 되고, 이에 따라, 상기 이동정보가 변동되게 되면, 상기 메인 프로세서(240)는 상기 입체 영상을 상기 카메라유닛(110)의 이동에 대응되는 방향으로 이동시켜 실제로 물체를 보고 있는 것과 유사한 효과를 내게 된다.
또한, 입체 영상을 표시하기 위해 완전 3D 입체로 표현하지 않고, 기존의 디스플레이 장치와 센서를 이용하여 제조함으로써 상대적으로 저비용구조로 제조될 수 있는 효과가 있다.
여기서, 상기 로봇 기반 입체 디스플레이 장치를 이용한 로봇 기반 입체 디스플레이 방법을 설명하기 위하여 도 2를 제시한다. 도 2는 본 발명의 제 1실시예 에 따른 로봇 기반 입체 디스플레이 장치를 이용한 로봇 기반 입체 디스플레이 방법을 순서대로 도시한 순서도이다. 참고로, 순서도에 도시된 상기 로봇 기반 입체 디스플레이 방법을 설명하기 위하여 도 1의 참조번호를 참조하여 설명하기로 한다.
이에 도시된 바와 같이, 상기 로봇 기반 입체 디스플레이 방법(15)은 먼저, 로봇 기반 입체 디스플레이 장치를 제공하는 단계(P11)를 거친다. 여기서, 상기 로봇 기반 입체 디스플레이 장치(10)는 카메라유닛(110), 센서유닛(120), 송신유닛(130), 수신유닛(210), 3차원 프로세서(220), 디스플레이유닛(230) 및 메인 프로세서(240)를 포함한다.
다음, 상기 카메라유닛(110)에서 상기 영상 정보를 수집하는 단계(P12)를 거친다. 이 때, 상기 영상 정보는 팔(PAL)방식 또는 NTSC방식으로 변환되는 것도 가능하다.
다음, 상기 영상 정보를 수집하는 상기 카메라유닛(110)의 이동정보를 감지하는 단계(P13)를 거친다.
본 실시예에서는 상기 영상정보를 수집하는 단계(P12)과 상기 이동정보를 감지하는 단계(P13)를 차례대로 시행하는 것으로 제시하였지만, 이에 한정되거나 제한되는 것은 아니며, 상기 이동정보를 감지하는 단계(P13)를 먼저 시행하거나, 더욱 바람직하게는 상기 영상 정보를 수집하는 단계(P12)와 상기 이동 정보를 감지하는 단계(P13)를 동시에 시행하는 것도 가능하다.
다음, 상기 영상정보 및 상기 이동 정보를 송신한다(P14).
다음, 상기 영상정보 및 상기 이동 정보를 수신한다(P15).
다음, 수신된 상기 영상정보를 가공하여 3차원 가상 입체 영상을 생산하고 제공하는 단계(P16)를 거친다.
다음, 상기 입체 영상을 상기 디스플레이유닛(230)에 제시한다(P17).
다음, 상기 이동 정보에 대응되는 방향으로 메인 프로세서에서 상기 입체 영상을 시동시킨다(P18).
다음, 상기 메인 프로세서에서 이동된 상기 3차원 가상 입체 영상을 상기 디스플레이유닛(230)에 제시하는 단계(P19)를 거침으로써 상기 로봇 기반 입체 디스플레이 방법(15)이 완료된다.
따라서, 상기 디스플레이유닛(230)에 제시되는 상기 입체 영상을 관찰하는 사용자는 상기 카메라유닛(110)의 이동에 따라, 상기 입체 영상을 여러 가지 각도에 따라 관찰할 수 있는 이점이 있고, 이에 따라, 실제 물체를 관찰하는 것과 유사하게 현장감을 느낄 수 있는 효과가 있다.
2실시예
본 발명의 제 2실시예에 따른 로봇 기반 입체 디스플레이 장치를 설명하면, 다음과 같다. 도 3은 본 발명의 제 2실시예에 따른 로봇 기반 입체 디스플레이 장치의 구조를 도시한 블록도이다. 참고로, 설명의 편의를 위하여 제 1실시예와 동일한 구성에 대한 설명은 생략하기로 하며, 필요에 따라 설명하기로 한다.
이에 도시된 바와 같이, 상기 로봇 기반 입체 디스플레이 장치(20)는 로봇유닛(100), 수신유닛(210), 3차원 프로세서(220), 디스플레이유닛(230), 구동유닛(250) 및 메인 프로세서(240)를 포함한다.
상기 로봇유닛(100)은 카메라유닛(110), 이동유닛(140), 센서유닛(120) 및 송신유닛(130)을 포함한다. 여기서, 상기 카메라유닛(110), 상기 센서유닛(120) 및 상기 송신유닛(130)은 제 1실시예와 유사한 구성으로 구비된다.
상기 이동유닛(140)은 상기 카메라유닛(110)을 이동시키도록 구비된다. 이 때, 상기 이동유닛(140)은 인간형 로봇을 구동시키는 구동 프로세서로 구비되나, 이에 한정되거나, 제한되는 것은 아니며, 예를 들면, 무한 궤도 차량의 상부에 3축 회전이 가능한 지지대를 구비하여 상기 지지대 상부에 상기 카메라유닛(110)을 장착함으로써 상기 카메라유닛(110)이 자유롭게 이동되도록 하는 것도 가능하다. 또한, 일정한 궤도를 따라 상기 카메라유닛(110)이 이동되도록 궤도와 궤도 차량으로 구비되는 것도 가능하다.
이 때, 상기 센서유닛(120)은 상기 이동유닛(140)에 연결되어, 상기 카메라유닛(110)이 이동 정보를 수집하고, 필요에 따라, 상기 이동유닛(140)의 위치 변화에 대한 정보를 추가로 수집하여 상기 이동 정보에 포함함으로써, 용이하게 상기 카메라유닛(110)의 위치 변화를 파악하는 것도 가능하다.
상기 로봇유닛(100)은 인간이 활동할 수 있는 범위뿐만 아니라 인간이 활동할 수 없는 영역 즉, 심해의 공간이나, 우주의 공간에서도 상기 영상정보를 수집하여 송신하는 것이 가능하기 때문에 실제로 인간이 활동할 수 없는 영역에 존재하는 물체를 실제로 보는 것과 유사하게 관찰할 수 있는 효과가 있다.
특히, 교육을 목적으로 교육생들이 실제로 접하기 힘든 물체, 예컨대, 인체 에 유해한 방사능 물체, 또는 고가의 물건과 같은 물체를 3차원 가상 입체 영상을 이용하여 실제 보는 것과 유사한 시각효과를 얻을 수 있는 효과가 있다.
상기 구동유닛(250)은 상기 디스플레이유닛(230)을 상기 이동정보에 대응되는 방향으로 이동시키도록 구비되며, 회동부(260) 및 축이동부(270)를 포함한다.
상기 회동부(260)는 상기 디스플레이유닛(230)을 회전 이동시키도록 구비되며, 이를 위하여 제 1회동부재(261) 및 제 2회동부재(262)를 포함한다.
상기 제 1회동부재(261)는 상기 디스플레이유닛(230)의 적어도 일측에 힌지 결합되어 상기 디스플레이유닛(230)을 상기 결합된 지점을 통과하는 가상의 축, 즉 1축을 중심으로 회전시키도록 구비된다.
상기 제 2회동부재(262)는 상기 제 1회동부재에 연결되어 상기 1축에 직교하는 방향의 2축을 중심으로 상기 디스플레이유닛(230)을 회전시키도록 구비된다.
또한, 상기 회동부(260)는 상기 1축과 상기 2축에 의해 형성되는 가상 평면의 접선이 되는 3축을 중심으로 상기 디스플레이유닛(230)을 회전시키는 제 3회동부재(263)를 더 포함한다.
이에 따라, 상기 구동유닛(250)은 상기 이동정보에 따라 상기 디스플레이유닛(230)을 3축 회전이 가능하도록 한다.
상기 축이동부(270)는 상기 디스플레이유닛(230)을 직선 이동시키도록 구비되며, 일정한 궤도를 병행하여 연결함으로써 3축 이동이 가능하도록 구비된다. 이를 좀 더 상세히 설명하기 위하여 도 4를 제시한다. 도 4는 본 발명의 제 2실시예에 따른 축 이동부와 디스플레이유닛을 도시한 사시도이다.
이에 도시된 바와 같이, 상기 디스플레이유닛(230)은 상기 축이동부(270)에 결합되고, 이를 좀 더 상세히 설명하면 다음과 같다.
상기 축이동부(270)는 제 1구동부(271), 제 2구동부(272) 및 제 3구동부(273)를 포함하되, 상기 디스플레이유닛(230)을 상기 축이동부(270)를 따라 직선 이동 시키도록 구비된다.
상기 디스플레이유닛(230)은 상하측에 길이방향으로 돌출된 형상의 돌기부를 형성하고, 상기 제 1구동부(271)는 한 쌍의 평행한 바형상으로 구비되되, 상기 디스플레이유닛(230)의 상하측에 결합된다. 이 때, 상기 돌기부가 삽입결합되도록 상기 돌기부에 대응되는 형상으로 수용부를 형성한다.
이에 따라, 상기 디스플레이유닛(230)은 상기 제 1구동부(271)의 안내에 따라 좌우 방향(Y)으로 이동된다.
상기 제 2구동부(272)는 "ㄷ"자 형상으로 형성되되, 개방된 부위가 상부방향으로 향하도록 구비되며, 자유단의 내부 방향에서 상기 제 1구동부(271)의 길이방향 양 끝단 인접부위와 결합되되, 상기 제 1구동부(271)가 상기 제 2구동부(272)를 따라 상하 방향(X)으로 이동되도록 상기 돌기부와 상기 수용부와 유사하게 형성되어 상호 결합된다.
상기 제 3구동부(273)는 상기 제 2구동부(272)의 하부에서 결합되되, 상기 제 2구동부(272)에 의해 상기 디스플레이유닛(230)이 이동되는 방향(X, Y)에 의해 형성되는 가상의 평면과 수직한 방향(Z)으로 긴 바 형상으로 구비되되, 상기 돌기부와 수용부와 유사하게 삽입결합된다.
이에 따라, 상기 디스플레이유닛(230)은 상기 제 1구동부(271)에 결합되어 상기 제 1구동부(271)를 따라 좌, 우방향(Y)으로 이동되고, 상기 제 1구동부(271)가 상기 제 2구동부(272)를 따라 이동함에 따라, 상, 하 방향(X)으로 이동되며, 상기 제 2구동부(272)가 상기 제 3구동부(273)를 따라 이동함에 따라, 전, 후 방향(Y)으로 이동된다.
따라서, 상기 디스플레이유닛(230)은 상기 구동유닛(250)에 의해 서로 직교하는 3축 방향, 즉, 어느 방향으로든지 이동할 수 있도록 구비된다.
본 실시예에서는 상기 구동유닛(250)을 통해 상기 디스플레이유닛(230)을 3축 이동되는 것으로 제시하였지만, 이에 한정되거나, 제한되는 것은 아니며, 상기 제 3구동부(273)를 생략하고, 상기 디스플레이유닛(230)이 2축 이동되도록 구비하는 것도 가능하다.
또한, 상기 축이동부(270)는 상기 회동부(260)와 동시에 구비되어 상기 디스플레이유닛(230)이 3축 회전 및 3축 이동이 가능하도록 구비되는 것이 바람직하다.
이 때, 상기 축이동부(270)는 상기 디스플레이유닛(230)을 직선 이동시키도록 선형 모터(linear motor), 4절링크 또는 피스톤에서 구동력을 획득하는 것이 가능하고, 상기 회동부(260)는 일반적으로 상용되는 모터에서 회전 구동력을 획득하도록 구비된다.
따라서, 상기 센서유닛(120)에서 감지된 상기 이동정보에 따라, 즉, 상기 카메라유닛(110)이 이동하는 방향, 속도 및 회전의 정보에 따라 상기 디스플레이유닛(230)을 이동시키게 되고, 이에 따라, 실제로 물체를 관찰하는 것과 같은 현장감 을 체험할 수 있는 효과가 있다.
또한, 상기 디스플레이유닛(230)은 상기 카메라유닛(110)의 이동 정보에 따라 이동되어야 하므로, 상대적으로 무게가 가벼운 액정 디스플레이(LCD)나 플라즈마 디스플레이 패널(PDP)로 구비되는 것이 바람직하다.
이 때, 상기 디스플레이유닛(230)은 편광필터(미도시)를 더 포함하는 것도 가능하다. 상기 편광필터는 상기 디스플레이유닛(230)의 전면에 배치되고, 상기 디스플레이유닛(230)에서 제시되는 상기 입체 영상을 기 설정된 일정 각도 내에서만 관찰할 수 있도록 상기 디스플레이유닛(230)의 시야각을 조절하도록 구비된다. 이 때, 상기 시야각은 60도 내지 120도인 것이 바람직하나, 이에 한정되거나 제한되는 것은 아니며, 상기 디스플레이 유닛(230)의 입체 영상이 표시되는 정면 인접 부위에서만 상기 입체영상을 관찰할 수 있도록 제한하는 각도이면 자유롭게 변경이 가능하다.
따라서, 상기 디스플레이유닛(230)이 상기 구동유닛(250)에 의해 이동됨에 따라 상기 디스플레이유닛(230)을 관찰하는 사용자는 상기 디스플레이유닛(230)의 정면 인접 부위에서만 상기 입체 영상을 관찰할 수 있게되고, 이에 따라, 상기 디스플레이유닛(230)이 이동되는 방향과 대응되는 방향으로 이동하여야 하므로 상대적으로 더 높은 현실감을 기대할 수 있는 이점이 있다.
그리고, 상기 로봇 기반 입체 디스플레이 장치(20)를 이용하여 원격지에 떨어진 물체를 실제로 보는 것과 유사하게 관찰할 수 있는 효과를 기대할 수 있으므로, 전자 상거래를 이용한 실시간 상품 소개나 각종 전시회 또는 시연회 등 여러 행사에서 효율적으로 사용할 수 있는 이점이 있다.
여기서, 상기 로봇 기반 입체 디스플레이 장치(20)를 이용한 로봇 기반 입체 디스플레이 방법(25)을 설명하면 다음과 같다. 도 5는 본 발명의 제 2실시예에 따른 로봇 기반 입체 디스플레이 장치를 이용한 로봇 기반 입체 디스플레이 방법을 순서대로 도시한 순서도이다. 참고로, 설명의 편의를 위하여 도 3내지 4에 도시된 상기 로봇 기반 입체 디스플레이 장치(20)의 구성요소에 대한 참조번호를 참조하여 설명하기로 한다.
이에 도시된 바와 같이, 상기 로봇 기반 입체 디스플레이 방법(25)은, 먼저, 로봇 기반 입체 디스플레이 장치(20)를 제공하는 단계(P21)를 거친다. 이 때, 로봇 기반 입체 디스플레이 장치(20)는 로봇유닛(100), 수신유닛(210), 3차원 프로세서(220), 디스플레이유닛(230), 구동유닛(250) 및 메인 프로세서(240)를 포함한다.
다음, 상기 로봇유닛(100)에 구비된 상기 카메라유닛(110)에서 영상 정보를 수집하는 단계(P22)를 거친다.
다음, 상기 로봇유닛(100)에 구비된 센서유닛(120)에서 상기 카메라유닛(110)의 이동 정보를 감지하는 단계(P23)를 거친다. 이 때, 상기 센서유닛(120)은 상기 로봇유닛(100)의 이동 정보를 감지하도록 구비되는 것도 가능하나, 상기 카메라유닛(110)의 회전 이동과 같은 상기 카메라유닛(110)의 독립적인 움직임을 감지하기 위하여 상기 카메라유닛(110)의 이동 정보를 감지하는 것이 바람직하다.
다음, 상기 영상 정보 및 상기 이동 정보를 상기 로봇유닛(100)에 구비된 송 신유닛(130)에서 송신하고, 수신유닛(210)에서 수신하는 송수신 단계(P24)를 거친다.
다음, 3차원 프로세서(220)에서 수신된 상기 영상 정보를 가공하여 3차원 가상 입체 영상을 생산하여 디스플레이유닛(230)에 제공하는 단계(P25)를 거친다.
다음, 상기 입체 영상을 상기 디스플레이유닛(230)에 제시하는 단계(P26)를 거친다.
다음, 상기 이동 정보에 따라, 구동유닛(250)은 상기 디스플레이유닛(230)을 이동시킨다(P27). 이 때, 상기 로봇유닛(100)은 기 설정된 공간을 자유롭게 이동하지만, 상기 디스플레이유닛(230)이 움직일 수 있는 한계가 있는 것이 일반적이므로, 이를 설명하기 위하여 도 6을 제시한다. 도 6은 디스플레이유닛을 이동시키는 단계를 순서대로 상세히 도시한 순서도이다.
이에 도시된 바와 같이, 먼저, 상기 디스플레이유닛(230)이 이동되는 한계를 설정하는 단계(P271)를 거친다. 이 때, 상기 한계는 상기 디스플레이유닛(230)이 이동되는 회전 각도, 이동 거리 또는 이동 공간 중 적어도 하나에 대한 한계를 포함한다.
다음, 상기 디스플레이유닛(230)이 상기 한계까지 도달했는지 판단하는 단계(P272)를 거친다. 이 때, 상기 디스플레이유닛(230)이 상기 한계의 범위 내에서 이동되는 경우에는 상기 디스플레이유닛(230)을 상기 이동정보에 대응되도록 이동시킨다.
다음, 상기 디스플레이유닛(230)이 한계까지 도달한 경우에는 기 설정된 장 소, 예컨대, 원점과 같은 장소를 설정하여 상기 디스플레이유닛(230)을 상기 장소로 이동시키는 초기화 단계(P273)를 거친다.
다음, 상기 초기화 단계(P273)를 거치면 상기 이동 정보에 따라 상기 디스플레이유닛(230)이 이동되지 않게 되므로, 이를 보정하기 위하여 상기 이동 정보를 보정하는 단계(P274)를 거친다.
다음, 상기 디스플레이유닛(230)을 상기 이동정보 또는 상기 초기화 단계(P273)를 거친 후 보정된 상기 이동 정보 중 하나에 따라 상기 디스플레이유닛(230)을 이동시킨다(P275).
다음, 상기 이동정보에 대응되는 방향으로 메인 프로세서(240)에서 상기 입체 영상을 이동시키는 단계(P28)를 거친다.
다음, 이동된 상기 입체 영상을 이동된 상기 디스플레이유닛(230)에 제시하는 단계(P29)를 거침으로써 상기 로봇 기반 입체 디스플레이 방법(25)이 완료된다.
3실시예
본 발명의 제 3실시예에 따른 로봇 기반 입체 디스플레이 장치를 설명하면 다음과 같다. 도 7은 본 발명의 제 3실시예에 따른 로봇 기반 입체 디스플레이 장치의 구조를 도시한 블록도이다.
이에 도시된 바와 같이, 상기 로봇 기반 입체 디스플레이 장치(30)는 로봇유닛(100), 수신유닛(210), 3차원 프로세서(220), 디스플레이유닛(230), 구동유닛(250), 구동센서(285) 및 메인 프로세서(240)를 포함한다. 참고로, 설명 의 편의를 위하여 제 1 및 제 2실시예와 동일한 구성에 대한 설명은 생략하기로 하며, 필요에 따라 설명하기로 한다.
상기 구동센서(285)는 상기 이동정보에 따라 이동되는 상기 디스플레이유닛(230)의 위치 정보를 감지하도록, 일반적으로 상용되는 각속도 센서, 각도 센서, 변위 센서, 속도 센서, 가속도 센서, 레벨 센서 또는 위치 센서 중 적어도 하나로 구비된다.
이 때, 상기 위치정보는 상기 디스플레이유닛의 위치 변화에 대응되는 이동거리, 이동 방향, 이동 속도, 회전 거리, 회전 방향, 회전 각도 또는 회전 속도 중 적어도 하나를 포함한다.
상기 메인 프로세서(240)는 상기 구동센서(285)에서 감지된 상기 위치정보에 대응되는 방향으로 상기 입체 영상을 이동시키도록 일반적으로 상용되는 마이크로 프로세서로 구비된다.
따라서, 상기 메인 프로세서(240)는 상기 디스플레이유닛(230)의 이동에 따라 상기 입체 영상을 이동시킴으로써 상기 카메라유닛(110)의 크기나 위치에 관계없이 상기 디스플레이유닛(230)의 크기 또는 이동에 대응되는 상기 입체 영상의 이동에 관여함으로써 상기 카메라유닛(110)과 상기 디스플레이유닛(230)의 크기 차이, 속도 차이와 같은 원인에 의해 발생할 수 있는 두 유닛간의 차이에 의해 일어나는 괴리감을 감소시킬 수 있는 효과가 있다.
여기서, 상기 로봇 기반 입체 디스플레이 장치(30)를 이용한 로봇 기반 입체 디스플레이 방법에 대해 설명하면 다음과 같다. 도 8은 본 발명의 제 3실시예에 따른 로봇 기반 입체 디스플레이 장치를 이용한 로봇 기반 입체 디스플레이 방법을 순서대로 도시한 순서도이다. 참고로, 설명의 편의를 위하여 도 7에 도시된 상기 로봇 기반 입체 디스플레이 장치(30)를 구성하는 구성 요소의 참조 번호를 참조하여 설명하기로 한다.
이에 도시된 바와 같이, 상기 로봇 기반 입체 디스플레이 방법(35)은 먼저, 로봇 기반 입체 디스플레이 장치(30)를 제공하는 단계(P31)를 거친다. 여기서, 상기 로봇 기반 입체 디스플레이 장치(30)는 로봇유닛(100), 수신유닛(210), 3차원 프로세서(220), 디스플레이유닛(230), 구동유닛(280), 구동센서(285) 및 메인 프로세서(240)를 포함한다.
다음, 상기 로봇유닛(100)에 구비된 카메라유닛(110)에서 영상 정보를 수집하고, 상기 카메라유닛(110)의 이동 정보를 센서유닛(120)에서 감지하는 단계(P32)를 거친다.
다음, 상기 영상 정보 및 상기 이동 정보를 상기 로봇유닛(100)에서 송신하고, 상기 수신유닛(210)에서 수신한다(P33).
다음, 수신된 상기 영상 정보를 가공하여 3차원 가상 입체 영상을 생성하고 제공하는 단계(P34)를 거친다.
다음, 제공된 상기 3차원 가상 입체 영상을 상기 디스플레이유닛(230)에 제시한다(P35).
다음, 수신된 상기 이동 정보에 따라 상기 구동유닛(280)은 상기 디스플레이유닛(230)을 이동시키는 단계(P36)를 거친다.
다음, 상기 디스플레이유닛(230)이 이동에 따라 상기 구동센서(285)는 상기 디스플레이유닛(230)의 위치정보를 감지하는 단계(37)를 거친다.
다음, 상기 메인 프로세서에 의해 상기 위치정보에 대응되는 방향으로 상기 입체 영상을 이동시킨다(P38).
다음, 이동된 상기 입체 영상을 상기 디스플레이유닛(230)에 제시하는 단계(P39)를 거침으로써 상기 로봇 기반 입체 디스플레이 방법(35)이 완료된다.
본 실시예에서는 상기 P34 단계 내지 P35단계가 상기 P36 단계 내지 P38단계를 차례대로 시행하는 것으로 제시하였지만, 이에 한정되거나 제한되는 것은 아니며, 상기 단계(P34 단계 내지 P35단계, P36 단계 내지 P38단계)들은 동시에 진행되는 것이 더욱 바람직하며, 실시간으로 동시에 진행됨으로써, 상기 카메라유닛(110) 또는 상기 디스플레이유닛(230)의 이동과 동시에 상기 입체 영상이 이동되도록 하여 상기 디스플레이유닛(230)을 관찰하는 사람이 상기 입체 영상의 이동을 관찰할 수 있도록 함으로써 현장감을 느낄 수 있도록 한다.
또한, 본 실시예에서는 제시하지 않았지만, 상기 로봇유닛(100)에게 별도로 떨어진 원격지에서 상기 로봇유닛(100)의 이동을 지시하는 리모트 콘트롤러(미도시)를 별도로 구비하여 상기 로봇유닛(100)을 조정함으로써 좀 더 능동적으로 상기 로봇 기반 입체 디스플레이 장치를 운용하는 것도 가능함은 물론이다.
상술한 바와 같이, 본 발명의 바람직한 실시예를 참조하여 설명하였지만 해당 기술분야의 숙련된 당업자라면 하기의 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
도 1은 본 발명의 로봇 기반 입체 디스플레이 장치의 구조를 도시한 블록도이다.
도 2는 본 발명의 제 1실시예에 따른 로봇 기반 입체 디스플레이 장치를 이용한 로봇 기반 입체 디스플레이 방법을 순서대로 도시한 순서도이다.
도 3은 본 발명의 제 2실시예에 따른 로봇 기반 입체 디스플레이 장치의 구조를 도시한 블록도이다.
도 4는 본 발명의 제 2실시예에 따른 축 이동부와 디스플레이유닛을 도시한 사시도이다.
도 5는 본 발명의 제 2실시예에 따른 로봇 기반 입체 디스플레이 장치를 이용한 로봇 기반 입체 디스플레이 방법을 순서대로 도시한 순서도이다.
도 6은 디스플레이유닛을 이동시키는 단계를 순서대로 상세히 도시한 순서도이다.
도 7은 본 발명의 제 3실시예에 따른 로봇 기반 입체 디스플레이 장치의 구조를 도시한 블록도이다.
도 8은 본 발명의 제 3실시예에 따른 로봇 기반 입체 디스플레이 장치를 이용한 로봇 기반 입체 디스플레이 방법을 순서대로 도시한 순서도이다.
<도면의 주요 부분에 대한 부호의 설명>
100:로봇유닛 110:카메라유닛
120:센서유닛 130:송신유닛
140:이동유닛 210:수신유닛
220:3차원 프로세서 230:디스플레이유닛
240:메인 프로세서 250:구동유닛
250:구동유닛 260:회동부
261:제 1회동부재 262:제 2회동부재
263:제 3회동부재 270:축이동부
271:제 1구동부 272:제 2구동부
273:제 3구동부 285:구동센서

Claims (18)

  1. 영상정보를 수집하는 카메라유닛;
    상기 카메라유닛의 이동정보를 수집하는 센서유닛;
    상기 이동 정보 및 상기 영상 정보를 송신하는 송신유닛;
    상기 이동 정보 및 상기 영상 정보를 수신하는 수신유닛;
    상기 영상 정보를 가공하여 3차원 가상 입체영상을 생산하여 제공하는 3차원프로세서;
    상기 입체영상을 제시하는 디스플레이유닛; 및
    상기 이동정보에 대응되는 방향으로 상기 입체영상을 이동시키는 메인 프로세서;
    를 포함하고, 상기 이동 정보는 상기 카메라유닛의 위치 변화에 대응되는 이동거리, 이동 방향, 이동 속도, 회전거리, 회전 방향, 회전 각도 또는 회전 속도 중 적어도 하나를 포함하는 것을 특징으로 하는 로봇기반 입체 디스플레이 장치.
  2. 삭제
  3. 제 1항에 있어서,
    상기 센서유닛은 각속도 센서, 각도 센서, 변위 센서, 속도 센서, 가속도 센 서 또는 위치 센서 중 적어도 하나로 구비되는 것을 특징으로 하는 로봇기반 입체 디스플레이 장치.
  4. 제 1항에 있어서,
    상기 송신유닛 및 상기 수신유닛은 유선 통신망, 무선 통신망, 적외선통신(IrDA), 지그비(ZigBee), 블루투스(Bluetooth) 또는 전파식별(RFID) 중 적어도 하나의 방식으로 상기 이동 정보 및 상기 영상 정보를 송수신하는 것을 특징으로 하는 로봇기반 입체 디스플레이 장치.
  5. 로봇 기반 입체 디스플레이 장치를 제공하는 단계;
    카메라유닛에서 영상 정보를 수집하는 단계;
    상기 영상 정보를 수집하는 카메라유닛의 이동 정보를 감지하는 단계;
    상기 영상 정보 및 상기 이동 정보를 송신하는 단계;
    상기 영상 정보 및 상기 이동 정보를 수신하는 단계;
    상기 영상 정보를 가공하여 3차원 가상 입체 영상을 생산하여 제공하는 단계;
    상기 입체 영상을 제시하는 단계;
    상기 이동 정보에 대응되는 방향으로 상기 입체 영상을 이동시키는 단계; 및
    이동된 상기 입체 영상을 제시하는 단계;
    를 포함하고, 상기 이동 정보는 상기 카메라유닛의 위치 변화에 대응되는 이동거리, 이동 방향, 이동 속도, 회전거리, 회전 방향, 회전 각도 또는 회전 속도 중 적어도 하나를 포함하는 것을 특징으로 하는 로봇 기반 입체 디스플레이 방법.
  6. 영상정보 및 이동 정보를 수집하여 송신하는 로봇유닛;
    상기 영상정보 및 상기 이동정보를 수신하는 수신유닛;
    상기 영상 정보를 가공하여 3차원 가상 입체 영상을 생산하여 제공하는 3차원 프로세서;
    상기 입체영상을 제시하는 디스플레이유닛;
    상기 디스플레이유닛을 상기 이동정보에 대응되는 방향으로 이동시키는 구동유닛; 및
    상기 이동정보에 대응되는 방향으로 상기 입체영상을 이동시키는 메인프로세서;
    를 포함하고, 상기 이동 정보는 상기 로봇유닛에 포함되어 상기 영상정보를 수집하는 카메라유닛의 위치 변화에 대응되는 이동거리, 이동 방향, 이동 속도, 회전거리, 회전 방향, 회전 각도 또는 회전 속도 중 적어도 하나를 포함하는 것을 특징으로 하는 로봇 기반 입체 디스플레이 장치
  7. 제 6항에 있어서,
    상기 로봇유닛은
    영상 정보를 수집하는 카메라유닛;
    상기 카메라유닛을 이동시키는 이동유닛;
    상기 카메라유닛의 이동 정보를 감지하는 센서유닛; 및
    상기 영상 정보 및 상기 이동 정보를 송신하는 송신유닛;
    를 포함하는 것을 특징으로 하는 로봇기반 입체 디스플레이 장치.
  8. 제 6항에 있어서,
    상기 구동유닛은
    상기 디스플레이유닛을 회전 이동시키는 회동부; 및
    상기 디스플레이유닛을 직선 이동시키는 축이동부;
    를 포함하는 것을 특징으로 하는 로봇기반 입체 디스플레이 장치.
  9. 제 8항에 있어서,
    상기 회동부는
    상기 디스플레이유닛을 1축 회전시키는 제 1회동부재;
    상기 1축에 직교하는 방향의 2축을 중심으로 상기 디스플레이유닛을 회전시키는 제 2회동부재;
    를 포함하는 것을 특징으로 하는 로봇 기반 입체 디스플레이 장치.
  10. 제 9항에 있어서,
    상기 회동부는 상기 1축과 상기 2축에 의해 형성되는 가상 평면의 접선이 되는 3축을 중심으로 상기 디스플레이유닛을 회전시키는 제 3회동부재를 더 포함하는 것을 특징으로 하는 로봇 기반 입체 디스플레이 장치.
  11. 제 6항에 있어서,
    상기 디스플레이유닛은 편광필터를 더 포함하고, 상기 편광 필터는 상기 입 체 영상을 기 설정된 일정 각도 내에서만 관찰할 수 있도록 상기 디스플레이유닛의 시야각을 조절하는 것을 특징으로 하는 로봇 기반 입체 디스플레이 장치.
  12. 로봇 기반 입체 디스플레이 장치를 제공하는 단계;
    카메라 유닛에서 영상 정보를 수집하는 단계;
    상기 카메라유닛의 이동 정보를 감지하는 단계;
    상기 영상 정보 및 상기 이동 정보를 송수신하는 단계;
    상기 영상 정보를 가공하여 3차원 가상 입체 영상을 생산하여 제공하는 단계;
    상기 입체 영상을 디스플레이유닛에 제시하는 단계;
    상기 이동 정보에 따라 상기 디스플레이유닛을 이동시키는 단계;
    상기 이동정보에 대응되는 방향으로 상기 입체 영상을 이동시키는 단계; 및
    이동된 상기 입체 영상을 상기 디스플레이유닛에 제시하는 단계;
    를 포함하고, 상기 이동 정보는 상기 카메라유닛의 위치 변화에 대응되는 이동거리, 이동 방향, 이동 속도, 회전거리, 회전 방향, 회전 각도 또는 회전 속도 중 적어도 하나를 포함하는 것을 특징으로 하는 로봇 기반 입체 디스플레이방법.
  13. 제 12항에 있어서,
    상기 디스플레이유닛을 이동시키는 단계는
    상기 디스플레이유닛을 이동하는 한계를 설정하는 단계;
    상기 디스플레이유닛이 상기 한계까지 도달했는지 판단하는 단계; 및
    상기 한계까지 도달한 경우에는 기 설정된 장소로 상기 디스플레이유닛을 이 동시키는 초기화 단계;
    를 포함하는 것을 특징으로 하는 로봇 기반 입체 디스플레이 방법.
  14. 영상정보 및 이동 정보를 수집하여 송신하는 로봇유닛;
    상기 영상정보 및 상기 이동정보를 수신하는 수신유닛;
    상기 영상 정보를 가공하여 3차원 가상 입체 영상을 생산하여 제공하는 3차원 프로세서;
    상기 입체영상을 제시하는 디스플레이유닛;
    상기 디스플레이유닛을 상기 이동정보에 따라 이동시키는 구동유닛;
    이동하는 상기 디스플레이유닛의 위치 정보를 감지하는 구동 센서; 및
    상기 구동 센서에서 감지된 상기 위치정보에 대응되는 방향으로 상기 입체영상을 이동시키는 메인프로세서;
    를 포함하고, 상기 이동 정보는 상기 로봇 유닛에 포함되어 상기 영상정보를 수집하는 카메라유닛의 위치 변화에 대응되는 이동거리, 이동 방향, 이동 속도, 회전거리, 회전 방향, 회전 각도 또는 회전 속도 중 적어도 하나를 포함하는 것을 특징으로 하는 로봇 기반 입체 디스플레이 장치
  15. 제 14항에 있어서,
    상기 위치정보는 상기 디스플레이유닛의 위치 변화에 대응되는 이동거리, 이동 방향, 이동 속도, 회전 거리, 회전 방향, 회전 각도 또는 회전 속도 중 적어도 하나를 포함하는 것을 특징으로 하는 로봇기반 입체 디스플레이 장치.
  16. 제 14항에 있어서,
    상기 구동 센서는 각속도 센서, 각도 센서, 변위 센서, 속도 센서, 가속도 센서, 레벨 센서 또는 위치 센서 중 적어도 하나로 구비되는 것을 특징으로 하는 로봇기반 입체 디스플레이 장치.
  17. 로봇 기반 입체 디스플레이 장치를 제공하는 단계;
    영상 정보 및 이동 정보를 수집하는 단계;
    상기 영상 정보 및 상기 이동 정보를 송수신하는 단계;
    상기 영상 정보를 가공하여 3차원 가상 입체 영상을 생산하여 제공하는 단계;
    상기 입체 영상을 디스플레이유닛에 제시하는 단계;
    상기 이동 정보에 따라 상기 디스플레이유닛을 이동시키는 단계;
    상기 디스플레이유닛의 위치 정보를 감지하는 단계:
    상기 위치정보에 대응되는 방향으로 상기 입체 영상을 이동시키는 단계; 및
    이동된 상기 입체 영상을 상기 디스플레이유닛에 제시하는 단계;
    를 포함하고, 상기 이동 정보는 상기 로봇 기반 입체 디스플레이 장치에 포함되어 상기 영상정보를 수집하는 카메라유닛의 위치 변화에 대응되는 이동거리, 이동 방향, 이동 속도, 회전거리, 회전 방향, 회전 각도 또는 회전 속도 중 적어도 하나를 포함하는 것을 특징으로 하는 로봇 기반 입체 디스플레이방법.
  18. 제 17항에 있어서,
    상기 송수신하는 단계는 유선 통신망 또는 무선 통신망 중 적어도 하나의 방식으로 송수신하는 것을 특징으로 하는 로봇 기반 입체 디스플레이 방법.
KR1020070136795A 2007-12-24 2007-12-24 로봇 기반 입체 디스플레이 장치 및 방법 KR100952574B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070136795A KR100952574B1 (ko) 2007-12-24 2007-12-24 로봇 기반 입체 디스플레이 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070136795A KR100952574B1 (ko) 2007-12-24 2007-12-24 로봇 기반 입체 디스플레이 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20090068977A KR20090068977A (ko) 2009-06-29
KR100952574B1 true KR100952574B1 (ko) 2010-04-12

Family

ID=40996296

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070136795A KR100952574B1 (ko) 2007-12-24 2007-12-24 로봇 기반 입체 디스플레이 장치 및 방법

Country Status (1)

Country Link
KR (1) KR100952574B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101589727B1 (ko) * 2014-07-30 2016-01-28 엘아이지넥스원 주식회사 이동물체 취득 영상에서의 프레임율 향상 장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040044621A (ko) * 2002-11-21 2004-05-31 삼성전자주식회사 이동체의 움직임 및 이동체 전방에 위치한 물체의 3차원정보 측정 기능을 구비한 이동체 및 그 방법
JP2006133665A (ja) 2004-11-09 2006-05-25 Seiko Epson Corp 立体画像表示装置
KR20070078225A (ko) * 2006-01-26 2007-07-31 삼성전자주식회사 눈동자 검출 정보를 이용하는 입체 영상 표시 장치 및 방법
KR20070078464A (ko) * 2006-01-27 2007-08-01 삼성전자주식회사 사용자의 위치에 따른 영상을 디스플레이하는 장치 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040044621A (ko) * 2002-11-21 2004-05-31 삼성전자주식회사 이동체의 움직임 및 이동체 전방에 위치한 물체의 3차원정보 측정 기능을 구비한 이동체 및 그 방법
JP2006133665A (ja) 2004-11-09 2006-05-25 Seiko Epson Corp 立体画像表示装置
KR20070078225A (ko) * 2006-01-26 2007-07-31 삼성전자주식회사 눈동자 검출 정보를 이용하는 입체 영상 표시 장치 및 방법
KR20070078464A (ko) * 2006-01-27 2007-08-01 삼성전자주식회사 사용자의 위치에 따른 영상을 디스플레이하는 장치 및 방법

Also Published As

Publication number Publication date
KR20090068977A (ko) 2009-06-29

Similar Documents

Publication Publication Date Title
CN205726125U (zh) 一种新型机器人远程监视系统
EP0702494B1 (en) Three-dimensional image display apparatus
US4884219A (en) Method and apparatus for the perception of computer-generated imagery
CN103402106B (zh) 三维图像显示方法及装置
CN100595631C (zh) 实现全视场空间三维显示的屏幕装置
US7880764B2 (en) Three-dimensional image display apparatus
Bruder et al. Distance estimation in large immersive projection systems, revisited
CN106131536A (zh) 一种裸眼3d增强现实互动展示系统及其展示方法
EP2448283A2 (en) Adaptation system for 3D display with user tracking
CN109358754B (zh) 一种混合现实头戴显示系统
KR101203921B1 (ko) 안구 추적과 위치 기반 서비스를 이용한 정보 제공 장치
US8115803B2 (en) Apparatus and method for projecting spatial image
US20050128584A1 (en) Method of fusion or merging imagery data for improved visual perception using monoscopic and stereographic fusion and retinal decay techniques
WO2019171557A1 (ja) 画像表示システム
US20140293024A1 (en) Foldable display and method and apparatus for controlling the same
EP2315451A2 (en) Display apparatus, image displaying method, 3D spectacles and driving method thereof
CN204496117U (zh) 3d眼镜
US20060214874A1 (en) System and method for an interactive volumentric display
KR101721103B1 (ko) 입체영상표시장치 및 그 구동방법
KR100952574B1 (ko) 로봇 기반 입체 디스플레이 장치 및 방법
JP4664690B2 (ja) 立体表示装置及び立体表示方法
WO2016004656A1 (zh) 自适应追踪式立体显示装置及其显示方法
KR100901155B1 (ko) 입체 디스플레이 장치 및 이의 운용방법
JP3952319B2 (ja) 立体画像システム、その方法、ゲーム装置及び記録媒体
TW200921627A (en) Modular 3D display and method for driving the same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130329

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140326

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20150417

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20160325

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee