KR20100016240A - An apparatus system and method for human-machine-interface - Google Patents

An apparatus system and method for human-machine-interface Download PDF

Info

Publication number
KR20100016240A
KR20100016240A KR1020097023103A KR20097023103A KR20100016240A KR 20100016240 A KR20100016240 A KR 20100016240A KR 1020097023103 A KR1020097023103 A KR 1020097023103A KR 20097023103 A KR20097023103 A KR 20097023103A KR 20100016240 A KR20100016240 A KR 20100016240A
Authority
KR
South Korea
Prior art keywords
module
image
dimensional
skeleton
data
Prior art date
Application number
KR1020097023103A
Other languages
Korean (ko)
Other versions
KR101379074B1 (en
Inventor
도르 기본
Original Assignee
익스트림 리얼리티 엘티디.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 익스트림 리얼리티 엘티디. filed Critical 익스트림 리얼리티 엘티디.
Publication of KR20100016240A publication Critical patent/KR20100016240A/en
Application granted granted Critical
Publication of KR101379074B1 publication Critical patent/KR101379074B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition

Abstract

There is provided a 3D human machine interface (''3D HMI''), which 3D HMI may include (1) an image acquisition assembly, (2) an initializing module, (3) an image segmentation module, (4) a segmented data processing module, (5) a scoring module, (6) a projection module, (7) a fitting module,(8) a scoring and error detection module, (9) a recovery module, (10) a three dimensional correlation module, (11) a three dimensional skeleton prediction module, (12) an output module and a (13) depth extraction module.

Description

인간 기계 인터페이스를 위한 장치 시스템 및 방법{AN APPARATUS SYSTEM AND METHOD FOR HUMAN-MACHINE-INTERFACE}Device system and method for the human machine interface {AN APPARATUS SYSTEM AND METHOD FOR HUMAN-MACHINE-INTERFACE}

본 출원은 2004년 7월 30일에 제출된 US 60/592,136, 2005년 7월 31일 제출된 PCT/IL2005/000813호의 PCT 출원, 2005년 10월 31일에 제출된 US 60/731,274, 2006년 3월 27일에 제출된 US 11/227,578 및 2006년 10월 31일에 제출된 PCT/IL2006/001254호의 PCT 출원의 일부계속이며, 이에 의하여 이들 각각은 그 전체에서 참조된다. This application is filed under US 60 / 592,136, filed on July 30, 2004, PCT / IL2005 / 000813 filed on July 31, 2005, US 60 / 731,274, filed on October 31, 2005. Part of the PCT application of US 11 / 227,578, filed March 27 and PCT / IL2006 / 001254, filed October 31, 2006, whereby each of them is referred to in its entirety.

본 발명은 사용자 인터페이스에 관련되며, 특히, 3D의 인간 기계 인터페이스의 방법과 시스템에 대한 것이다. The present invention relates to a user interface, and more particularly, to a method and system of a 3D human machine interface.

소프트웨어의 역사에서 가장 큰 패턴 중 하나는 연산 중심(computation-intensive)의 디자인에서 프리젠테이션 중심(presentation-intensive)의 디자인으로의 이동이다. 기계들이 점점 더 강력해짐에 따라, 개발자들은 꾸준히 증가하는 이러한 힘의 일부를 프리젠테이션에 소비해 왔다. 진보의 역사는 간단히 세 시대로 분류될 수 있다 : 뱃치(batch, 1945-1968), 커맨드-라인(command-line, 1969-1983), 그래픽(graphical, 1984과 그 후). 물론, 그 역사는 디지털 컴퓨터의 발명과 함께 시작된다. 뒤의 두 시대들의 개시일들은 생생한 새로운 인터페이스 기술이 실험실을 벗어나서 인터페이스에 대한 사용자들의 기대를 중요한 방향으로 변화시킨 해이다. 이러한 기술들은 인터렉티브 타임쉐어링(interactive timesharing)과 그래픽 사용자 인터페이스였다. One of the biggest patterns in the history of software is the shift from computation-intensive design to presentation-intensive design. As machines become more powerful, developers have been spending some of this steadily increasing power on presentations. The history of progress can simply be broken down into three eras: batch (1945-1968), command-line (1969-1983), graphical (graphical, 1984 and later). Of course, the history begins with the invention of the digital computer. The start dates of the next two eras are the year when vivid new interface technology has left the lab and changed the user's expectations of the interface in a significant direction. These technologies were interactive timesharing and graphical user interfaces.

뱃치 시대에서는, 연산력이 극히 부족하고 비쌌다. 그 시기의 가장 큰 컴퓨터는 오늘날의 일반적인 토스터기 또는 마이크로웨이브 오븐보다 더 적은 초당 로직 사이클과, 오늘날의 자동차, 디지털 시계 또는 휴대폰 보다 더 적은 비트를 처리했다. 따라서, 사용자 인터페이스는 원시적이였다. 사용자 인터페이스는 부하(overhead)로 간주되었고, 소프트웨어는 가능한한 부하가 적으면서 프로세서의 최대한의 이용을 유지하기 위하여 디자인되는 것이라고 받아들여야 했다.In the batch era, computing power was extremely low and expensive. The largest computers of that time handled fewer logic cycles per second than today's typical toasters or microwave ovens, and fewer bits than today's cars, digital clocks or cell phones. Thus, the user interface was primitive. The user interface was considered overhead, and the software had to accept that it was designed to maintain the best use of the processor with the least load possible.

뱃치 머신(batch machines)의 사용자 인터페이스의 입력측은 주로 천공 카드(punched card) 또는 종이 테이프(paper tape)와 같은 미디어이였다. 출력측은 라인 프린터를 이러한 미디어에 더했다. 시스템 작업자(system operator)의 콘솔(console)의 제한된 예외를 제외하고는, 인간은 뱃치 머신과 실시간으로 전혀 소통하지 않았다. The input side of the user interface of batch machines was mainly media such as punched cards or paper tapes. The output side added a line printer to this media. Except for the limited exception of the console of the system operator, humans did not communicate at all with the batch machine in real time.

뱃치 머신에 작업을 맡기는 것은, 먼저, 프로그램과 데이터 세트를 기술하는 천공 카드의 덱(deck)을 준비하는 것을 포함한다. 상기 프로그램 카드를 천공하는 것은 컴퓨터 자체에 의해서가 아니라, 지나치게 고집세고 실수를 용납하지 않으며, 기계적인 실수를 하기 쉬운 타자기와 같은 기계에 의해서 이루어졌다. 이와 유사하게, 상기 소프트웨어 인터페이스 역시 가능한한 가장 작은 컴파일러와 인터프리터(interpreter)에 의해 분석되는 것을 의미하는 매우 엄격한 신택스(syntax)로 인 해 실수가 용납되지 않았다.Delegating work to a batch machine involves first preparing a deck of punch cards describing the program and data set. The perforation of the program card was made not by the computer itself, but by a machine such as a typewriter, which is too stubborn and does not tolerate mistakes and is prone to mechanical mistakes. Similarly, mistakes are not tolerated by the very strict syntax, which means that the software interface is also analyzed by the smallest possible compiler and interpreter.

일단 상기 카드가 펀치되면, 카드를 작업 큐(job queue)로 떨어뜨리고, 대기한다. 결국, 작업자는 상기 덱을 컴퓨터로 제공하는데, 아마도 다른 데이터 세트 또는 헬퍼 소프트웨어를 제공하기 위하여 마그네틱 테이프를 마운팅한다. 상기 작업은 최종 결과 또는 (잦은 경우에) 에러 로그가 첨부된 중단(abort) 통지를 포함하는 프린트 아웃(printout)을 발생시킨다. 그리고, 성공한 런(run)은 마그네틱 테이프에 결과를 기록하거나 추후에 연산에서 사용될 수 있는 어떠한 데이터 카드를 발생시킬 수 있다. Once the card is punched, drop the card into the job queue and wait. Eventually, the operator presents the deck to a computer, perhaps mounting a magnetic tape to provide another data set or helper software. This operation results in a printout that includes a final result or an abort notification with an error log attached (often). A successful run can then write the result to a magnetic tape or generate any data card that can be used later in the operation.

하나의 작업을 위한 총처리 시간은 하루 종일 걸리는 경우도 종종 있다. 매우 운이 좋아 어느 하나가 수시간 걸렸을 경우; 실시간 반응은 전례가 없는 것이다. 그러나, 카드 큐(card queue) 보다 좋지 않은 상황이라면, 어떤 컴퓨터는 콘솔 스위치를 사용한 2진 코드의 프로그램에서 좀 더 장황하고 에러 투성이의 토글링(toggling) 프로세스를 실제로 요구한다. 실제로, 가장 초기의 기계는 플러그보드(plugboards)로 알려진 장치를 사용하여 부분적으로 병합된 프로그램 로직으로 리와이어(rewire)되어야만 했다. The total processing time for a job often takes a whole day. Very lucky if any one took several hours; Real-time response is unprecedented. However, in a situation that is worse than a card queue, some computers actually require a more verbose and error-toggling process in binary code programs using console switches. Indeed, the earliest machines had to be rewired into partially merged program logic using a device known as plugboards.

초기의 뱃치 시스템은 컴퓨터 전체에 현재의 러닝 작업(running job)을 제공하였다; 프로그램 덱과 테이프는 I/O 장치와 통신하기 위하여 오퍼레이팅-시스템 코드로 우리가 무엇을 생각하는지와, 필요로 되는 어떤 하우스키핑(housekeeping)을 하여야 하는지를 포함하여야 했다. 상기의 뱃치 시대 중간쯤, 1957 이후, 다양한 그룹들이 소위 "로드-앤드-고(load-and-go)" 시스템으로 실험을 시작했다. 이 그룹들은 컴퓨터에 항상 거주하는 모니터 프로그램(monitor program)을 사용하였다. 프로그램들은 서비스를 위한 모니터로 부를 수 있다. 상기 모니터의 다른 기능은 제공된 작업의 에러 체크를 잘 수행하고, 좀 더 빠르고 더 많이 지능적으로 에러를 캐치하고, 사용자들에게 좀 더 유용한 피드백을 생산하도록 되었다. 따라서, 모니터들은 오퍼레이팅 시스템과 뚜렷이 디자인된 사용자 인터페이스 모두에 대하여 제 1 단계를 나타낸다.Early batch systems provided current running jobs throughout the computer; Program decks and tapes had to include what we think of in the operating-system code and what housekeeping needed to communicate with the I / O device. In the middle of the batch period above, after 1957, various groups began experimenting with so-called "load-and-go" systems. These groups used a monitor program that always resided on a computer. Programs can be called monitors for services. Other functions of the monitor have been to perform error checking of the provided tasks well, catch errors faster and more intelligently, and produce more useful feedback to users. Thus, the monitors represent the first stage for both the operating system and the clearly designed user interface.

커맨드-라인 인터페이스(CLIs:command-line interface)는 시스템 콘솔에 연결된 뱃치 모니터로부터 진화되었다. 이들의 대화 모듈은 요구-응답 트랜잭션(request-response transactions)의 시리즈이고, 전문 용어로 텍스츄얼 커맨드(textual commands)로서 표현되는 요구를 갖는다. 지연시간(latency)은 뱃치 시스템 보다 수 일 또는 수 시간에서 수 초정도 더 낮아졌다. 따라서, 커맨드-라인 시스템은 초기 결과에서의 실시간 또는 실시간에 가까운 피드백에 대한 응답으로 상기 트랜잭션의 다음 단계에 대하여 사용자들의 마인드를 변화시켰다. 소프트웨어는 이전에 가능하지 않았던 방향인 탐구할 가치가 있는 양방향이 될 수 있었다. 그러나, 이러한 인터페이스는 여전히 사용자에게 우수한 기억력을 강요하였고, 숙달되기 위해서는 많은 노력의 투자와 학습 시간을 요구하는 것이었다. Command-line interfaces (CLIs) have evolved from batch monitors connected to the system console. Their conversation module is a series of request-response transactions and has a request expressed in technical terms as textual commands. Latency is several days or hours down to a few seconds lower than a batch system. Thus, the command-line system has changed the mindset of users for the next phase of the transaction in response to real-time or near real-time feedback in initial results. The software could be a two way worth exploring, a direction that was not possible before. However, these interfaces still forced the user to have good memory and required a lot of effort and learning time to be mastered.

커맨드-라인 인터페이스는 타임쉐어링 컴퓨터의 등장과 밀접한 관계가 있다. 타임쉐어링의 개념은 1950년대로 거슬러간다; 가장 영향력 있었던 초기 실험은 1965년 이후의 MULTICS 오퍼레이팅 시스템이였다; 그리고, 현재의 커맨드-라인 인터페이스에서 가장 영향력 있는 것은 1969년의 Unix였고, 이는 그 후에 나온 대부 분의 것에 발전적인 영향을 끼쳤다. The command-line interface is closely related to the emergence of timesharing computers. The concept of timesharing dates back to the 1950s; The most influential early experiment was the MULTICS operating system since 1965; And the most influential of the current command-line interface was the Unix of 1969, which had a developmental impact on most of the later.

초기의 커맨드-라인 시스템은 텔레타이프(teletypes)와 컴퓨터를 통합하였고, 사람들 사이에서의 정보 전송의 전달을 중재하는데 효과적이게 되도록 하였다.텔레타이프는 처음에 자동적인 전보 전송과 수신을 위한 장치로서 개발되었다; 이 텔레타이프는 1902년으로 거슬러 올라가며, 1920년에는 이미 편집실과 그외 다른 곳에 자리를 잡게 되었다. 이 텔레타이프의 재사용에는, 확실히 경제성이 고려되지만, 심리 상태와 최소 놀람의 규칙(the Rule of Least Surprise) 역시 중요하다; 텔레타이프는 많은 엔지니어와 사용자에게 친숙하도록 시스템과의 인터페이스 포인트를 제공하였다.Early command-line systems integrated teletypes and computers, making them effective in mediating the transfer of information transfers between people. Teletypes were initially developed as devices for automatic telegram transmission and reception; The teletype dates back to 1902 and has already settled in the editing room and elsewhere in 1920. While economics are certainly considered for the reuse of this teletype, psychological state and the Rule of Least Surprise are also important; Teletype provided interface points with the system to make it familiar to many engineers and users.

1970년대 중반의 비디오-디스플레이 터미널(VDTs: video-display terminals)의 광범위한 보급은 커맨드-라인 시스템의 두 번째 시기를 알렸다. 또한, 문자들은 프린터 헤드 또는 캐리지(carriage)보다 좀 더 빨리 움직일 수 있는 스크린의 형광체 점(phosphor dots)으로 될 수 있었기 때문에, 지연시간이 단축되었다. 그리고, 비디오-디스플레이 터미널은 비용이 드는 사진이 없어지도록 잉크와 종이와 같은 소모품을 없앰으로써, 인터렉티브 프로그래밍에 방해가 되는 것은 억누르는데 도움을 주었고, 1940년대의 컴퓨터 선구자였던 텔레타이프보다 좀 더 아이코닉(iconic)이면서 편리하여서 1950년대 말과 60년대의 제 1의 TV 세대가 되었다.The widespread deployment of video-display terminals (VDTs) in the mid-1970s marked the second phase of the command-line system. In addition, because the characters could be phosphor dots on the screen that can move faster than the print head or carriage, the latency is reduced. And by eliminating consumables such as ink and paper to eliminate costly photographs, video-display terminals have helped to curb interfering with interactive programming and are more iconic than teletype, a pioneer of computer in the 1940s. iconic) and convenient, making it the first TV generation in the late 1950s and 60s.

억세스 가능한 스크린의 존재만큼 중요하게, 빠르고 가역적으로 변형될 수 있는 텍스트의 2차원 디스플레이는 소프트웨어 디자이너들에게 텍스츄얼보다 좀 더 시각적으로 묘사될 수 있는 인터페이스를 배치하는데 경제적이게 되었다. 이러한 종류의 선구자적인 어플리케이션은 컴퓨터 게임과 텍스트 편집기였다; 여전히 유닉스 트래디션(Unix tradition)의 일부인 rogue(6)와 vi(1)와 같이 초기 견본중 일부의 전래물.As important as the presence of an accessible screen, a two-dimensional display of text that can be quickly and reversibly transformed has become economical for software designers to place interfaces that can be depicted more visually than textual. Pioneering applications of this kind were computer games and text editors; Sources of some of the early samples, such as rogue (6) and vi (1), still part of the Unix tradition.

1961년으로 거슬러 올라가면, 일찍이 PDP-1이였던 미니 컴퓨터에 나타났던 스크린 비디오 디스플레이는 전체적으로 신규하지 않았다. 그러나, VDTs로의 이동이 시리얼 케이블을 통해 정착될 때까지, 각각 대단히 비싼 컴퓨터는 그 콘솔 상에서 하나의 어드레스 가능한 디스플레이만을 서포트할 수 있었다. 이러한 상황에서 비쥬얼 UI의 어떠한 트래디션도 성장하기 어려웠다; 이러한 인터페이스는 컴퓨터 전체가 오직 한명의 사용자를 만족시키도록 적어도 일시적으로 사용되는 드문 환경에서 1회성으로 만들어진 것이였다. As far back as 1961, the screen video displays that appeared in minicomputers, formerly PDP-1s, were not entirely new. However, until the move to VDTs was settled through serial cables, each very expensive computer could only support one addressable display on its console. In this situation any trajectory of the visual UI was difficult to grow; This interface was created once in a rare environment where the entire computer was at least temporarily used to satisfy only one user.

1962년으로 거슬러 올라가면, PDP-1 상에서 스페이스워 게임(SPACEWAR game)을 개척한 것과 같이 그래픽 사용자 인터페이스라고 부를 수 있는 시도들이 산발적으로 이루어졌다. 그 기계의 디스플레이는 단지 문자 단말기(character terminal)에 지나지 않고, 벡터 그래픽(vector graphics)을 지원하도록 만들어진 변형된 오실로스코드(oscilloscope)이였다. 또한, 이 스페이스워 인터페이스는 토글 스위치(toggle switches)를 주로 사용하지만, 플레이어들 자신에 의해 주문 제작된 첫번째의 가공되지 않은 트랙볼(trackballs)이였다. 십 년 후, 1970년대 초에 이러한 시도들은 비디오-게임 산업을 낳았으며, 스페이스워의 아케이드 버전(arcade version)을 소개하는 시도들이 실제로 시작되었다. Back in 1962, attempts were made sporadically to be called graphical user interfaces, such as pioneering the SPACEWAR game on the PDP-1. The display of the machine was nothing more than a character terminal, but a modified oscilloscope designed to support vector graphics. The Space War interface also used toggle switches primarily, but was the first raw trackballs custom-made by the players themselves. Ten years later, in the early 1970s, these attempts gave birth to the video-game industry, and attempts to introduce an arcade version of Space War actually began.

상기 PDP-1 콘솔 디스플레이는 세계 제2차 대전의 레이더 디스플레이 튜 브(radar display tubes)로부터 유래되며, 그에 20년 앞서 MIT 링컨 연구소(MIT's Lincoln Labs)에서의 미니컴퓨팅의 중요한 몇몇의 개척은 레이더 기술보다 앞섰다는 사실을 암시한다. 1962년과 같은 해에 대륙에서는, 앞선 시기의 다른 레이더 기술자들이 스탠포드 연구소(Stanford Research Institute)에서 다른 분야를 개척하기를 시작하고 있었다. 그의 이름은 더그 엔젤바트(Doug Engelbart)이였다. 그는 상당히 초기의 그래픽 디스플레이에 대한 그의 개인적인 경험과, 오늘날 하이퍼텍스트(hypertext)라 불리우는 것의 1945년 버전으로 표현되는 As We May Think라는 바네바 부시(Vannevar Bush's)의 독창적인 에세이에 깊은 영감을 받고 있었다. The PDP-1 console display is derived from radar display tubes of World War II, and some 20 years earlier, several important pioneerings of minicomputing at MIT's Lincoln Labs were radar technology. It suggests that you are ahead of it. In the same year in 1962, on the continent, other radar engineers of earlier periods were beginning to pioneer other areas at the Stanford Research Institute. His name was Doug Engelbart. He was deeply inspired by his personal experience with the early graphic displays and the original essay by Vannevar Bush's, As We May Think, represented in the 1945 version of what is now called hypertext. .

1968년 12월에 엔젠바트와 그의 팀 SRI는 첫번째의 하이퍼텍스트 시스템(hypertext system) 즉, NLS/Augment9을 90분 동안 시범을 보였다. 이 시범에서는, 3개 버튼의 마우스(엔젤바트의 발명), 멀티플-윈도우 인터페이스를 갖는 그래픽 디스플레이, 하이퍼링크(hyperlinks) 및 온-스크린(on-screen) 비디오에 의한 회의가 처음 소개되었다. 이 시범은 25년 동안의 컴퓨터 역사를 통틀어 상당히 중요한 대사건이였고, 게다가 1991년에는 월드 와이드 웹(World Wide Web)의 발명을 포함하기에 이르렀다. In December 1968, Jensenbart and his team SRI demonstrated the first hypertext system, NLS / Augment 9, for 90 minutes. In this demonstration, a three-button mouse (the invention of Angelbart), a graphical display with a multiple-window interface, a conference by hyperlinks and on-screen video were first introduced. This demonstration was a significant milestone throughout the 25 years of computer history and, in 1991, included the invention of the World Wide Web.

그래서, 1960년대 초, 그래픽 프리젠테이션(graphical presentation)이 주목하지 않을 수 없는 사용자 경험에 도움이 된다는 것은 이미 받아들여졌다. 마우스와 같은 포인팅 디바이스(pointing devices)는 이미 개발되었고, 1960년대 후반의 많은 메인프레임(mainframe)은 PDP-1의 것들과 비교하여 우수하였다. 2004년에 살 수 있다면 4,500만 달러에 가까운 유니박 1108(Univac 1108) 메인프레임의 콘솔에서, 다른 상당히 초기의 비디오 게임을 플레이하는 생생한 기억을 프로그래머 중 한명은 1968년에 가지고 있다. 그러나, 4,500만 달러에 가깝기 때문에, 인터렉티브 그래픽에 대한 현실적인 수요는 극히 적었다. NLS/Augment 시스템의 사용자 지정 하드웨어가 조금 덜 비싸다고 하더라도, 일반적인 사용자에게는 여전히 비싼 것이다. 십만 달러가 되는 PDP1이더라도, 그래픽 프로그래밍의 트래디션을 만드는 기계로서는 매우 비싸다. Thus, in the early 1960's, it was already accepted that graphical presentation would be helpful for an inevitable user experience. Pointing devices such as mice have already been developed, and many of the mainframes of the late 1960s were superior to those of the PDP-1. One of the programmers, in 1968, had a vivid memory of playing another fairly early video game on the console of the Univac 1108 mainframe, which could cost $ 45 million if it could be bought in 2004. However, since it was close to $ 45 million, the realistic demand for interactive graphics was minimal. Although custom hardware in NLS / Augment systems is a bit less expensive, it's still expensive for the average user. Even with a $ 100,000 PDP1, it's very expensive for a machine to make trajectories for graphical programming.

비디오 게임은 하드웨어 프로그램이 극히 값싸고 간단한 프로세서 상에서 구동될 수 있기 때문에, 비디오 게임은 컴퓨터보다도 먼저 대중화가 되었다. 그러나, 범용 컴퓨터의 등장 이후에, 오실로스코프 디스플레이는 발전상의 최후를 맞이하였다. 컴퓨터와의 보통의 상호 관계를 위한 그래픽, 비쥬얼 인터페이스를 사용하는 개념은 몇 년이 지나야만 하였고, 사실 1970년대 후반의 시리얼-라인 캐릭터 VDT(serial-line character VDT)의 향상된 그래픽-가능 버전으로 이어졌다. Video games have become popular before computers because hardware programs can run on extremely cheap and simple processors. However, after the advent of general purpose computers, oscilloscope displays have reached the end of their development. The concept of using a graphical and visual interface for normal interaction with a computer had to have been around for years, and in fact led to an improved graphics-enabled version of the serial-line character VDT in the late 1970s. .

1970년대 가장 초기의 PARC 시스템 이후, 그래픽 사용자 인터페이스(GUIs)의 디자인은 알토(Alto)에 의해 개척된 WIMP(Windows, Icons, Mice, Pointer) 모델로 불리우는 것들에 의하여 좌우되었다. 이후 10년에 걸쳐 컴퓨팅과 디스플레이 하드웨어에서 커다란 변화가 있었고, 그것은 WIMP를 넘어서는 생각하기 대단히 어려운 것 같았다. Since the earliest PARC system in the 1970s, the design of graphical user interfaces (GUIs) was dominated by what was called the WIMP (Windows, Icons, Mice, Pointer) model pioneered by Alto. Over the next decade, there have been major changes in computing and display hardware that seemed very difficult to think beyond WIMP.

몇차례의 시도가 있었다. 그 중 가장 뚜렷한 것은 아마도 VR(virtual reality) 인터페이스이고, 사용자들은 이것에 의하여 이머시브(immersive) 그래픽 3-D 환경에서 움직이고 제스츄어를 취하는 것이 가능하였다. VR은 1980년대 중반 이후에 큰 리서치 단체를 매혹시켰다. 이러한 것들을 서포트하기 위한 연산력이 더비싸지 않더라도, 물리적인 디스플레이 장치는 여전히 2004년 범용이 되기 이전의 VR의 가격이였다. 수년 동안 비행 시뮬레이터(flight simulators)의 디자이너들에게 친숙한 보다 근본적인 문제는 VR이 인간의 고유수용 감각 시스템(proprioceptive system)을 혼동시킬 수 있다는 것이다; 실제 세계의 움직임에서의 내이(inner ear)의 보고를 움직임의 비주얼 시뮬레이션에 맞추기 때문에, 알맞은 속도에서도 VR 모션은 두뇌 피로소서 현기증이나 메스꺼움을 유발시킬 수 있다. There have been several attempts. Perhaps the most obvious of these is the virtual reality (VR) interface, which allows users to move and gesture in an immersive graphical 3-D environment. VR has fascinated large research groups since the mid-1980s. Although the computing power to support these is not expensive, the physical display device was still the price of VR before it became universal in 2004. The more fundamental problem familiar to designers of flight simulators for many years is that VR can confuse human proprioceptive systems; VR motion can cause brain fatigue, dizziness, or nausea, because the inner ear reports from real-world movements to match the visual simulation of movements.

제프 레스킨(Jef Raskin)의 THE 프로젝트(The Humane Environment project)는 3D로 가지 않고서 공간화하는 GUIs의 줌 월드 모델(zoom world model)을 연구하고 있다. THI에서 스크린은 데이터와 프로그램이 공간상의 주소로 체계화되는 2-D 가상 세계의 윈도우로 되었다. 이 가상 세계에서 객체(objects)는 임시 좌표계(reference plane)에서 하나의 높이에 의존하는 다양한 레벨로 표현될 수 있고, 가장 좋은 선택 동작은 줌인(zoom in)하고 그 위에 도달하는 것이다. Jeff Raskin's The Humane Environment project is studying the zoom world model of GUIs that spatialize without going in 3D. In THI, screens become windows in a 2-D virtual world where data and programs are organized into spatial addresses. In this virtual world, objects can be represented at various levels depending on one height in the reference plane, and the best selection action is to zoom in and reach over it.

예일 대학의 라이프스트림 프로젝트(lifestreams project)는 완전히 반대 방향으로 진행되었고, 이는 사실상 GUI를 공간화하는 것이 아니다. 사용자의 문서는 변경일에 의해 체계화되고 다양한 방법으로 필터될 수 있는 여러 종류의 월드-라인(world-line) 또는 일시적인 스트림(stream)으로 표현된다. Yale's lifestreams project went in the opposite direction, and it's not really spatializing the GUI. The user's document is represented by several kinds of world-line or temporary streams that can be organized by change date and filtered in various ways.

이러한 세 가지 접근 모두 참조의 주요 형태로서 이름을 붙이는 것과 이름을 사용하는 것을 피하기 위한 시도를 하는 컨텍스트(context)의 편에서 종래의 파일 시스템(filesystems)을 포기한다. 이것은 유닉스 구조의 계층적 네임스페이스와 파일 시스템을 일치시키는 것을 어렵게 만들고, 이는 가장 영구적이고 유효한 특징 중 하나로 보여진다. 그렇지만, 이러한 초기의 시도들 중 하나는 아직 NLS/Augment 엔젤바트의 1968년 시범과 같이 중요한 것으로 보인다. All three approaches give up traditional filesystems on the part of the context of trying to avoid naming and using names as the main form of reference. This makes it difficult to match the file system with the hierarchical namespace of Unix structures, which is seen as one of the most permanent and valid features. However, one of these early attempts still appears to be as important as the 1968 demonstration by NLS / Augment Angel Bart.

사용자 인터페이스 분야에서는 인간-기계-인터페이스의 개선된 시스템과 방법에 대한 요구가 있다. There is a need in the field of user interfaces for improved systems and methods of human-machine-interfaces.

본 발명의 어떤 실시예에 따르면, 3D 인간 기계 인터페이스("3D HMI")가 제공되고, 3D HDI는 (1) 이미지 획득 어셈블리, (2) 초기화 모듈, (3) 이미지 구획 모듈, (4) 구획 데이터 프로세싱 모듈, (5) 스코어링(scoring) 모듈, (6) 프로젝션 모듈, (7) 피팅(fitting) 모듈, (8) 스코어링 및 에러 검출 모듈, (9) 회복 모듈, (10) 3차원 상관관계 모듈, (11) 3차원 골격 예측 모듈, 및 (12) 출력 모듈을 포함할 수 있다. According to some embodiments of the invention, a 3D human machine interface (“3D HMI”) is provided, wherein the 3D HDI comprises (1) image acquisition assembly, (2) initialization module, (3) image partition module, (4) compartment Data processing module, (5) scoring module, (6) projection module, (7) fitting module, (8) scoring and error detection module, (9) recovery module, (10) three-dimensional correlation Module, (11) three-dimensional skeletal prediction module, and (12) output module.

본 발명의 어떤 실시예에 따르면, 상기 이미지 획득 어셈블리는 한 세트의 이미지를 획득할 수 있으며, 특히, 각각의 이미지는 실질적으로 시간상 다른 지점에 관련된다. 본 발명의 또 다른 실시예에 따르면, 이미지들은 단일의 사용자 또는 복수의 사용자가 될 수 있다. According to some embodiments of the invention, the image acquisition assembly may acquire a set of images, in particular each image being substantially related to a different point in time. According to another embodiment of the invention, the images may be a single user or a plurality of users.

본 발명의 어떤 실시예에 따르면, 상기 초기화 모듈은 (1) 칼라, (2) 조직 파라미터(organ's parameter), 환경, 및 사용자에 관련되는 다른 파라미터를 검출하고 정의할 수 있다. According to some embodiments of the invention, the initialization module may detect and define (1) color, (2) organization's parameters, environment, and other parameters related to the user.

본 발명의 어떤 실시예에 따르면, 상기 사용자는 어떤 사람 및/또는 동물 및/또는 상기 프레임에 들어오는 움직이는 객체(object)가 될 수 있다. According to some embodiments of the invention, the user can be any person and / or animal and / or a moving object entering the frame.

본 발명의 어떤 실시예에 따르면, 상기 이미지 구획 모듈은 상기 이미지로부터 구획 데이터를 추출할 수 있다. 본 발명의 또 어떤 실시예에 따르면, 상기 구획 데이터 역시 아래의 사항 포함할 수 있다.According to some embodiments of the invention, the image partition module may extract partition data from the image. According to another embodiment of the present invention, the partition data may also include the following.

·칼라(color)Color

·움직임(movement)Movement

·에지 검출(edge detection)Edge detection

·텍스츄어(texture)Texture

본 발명의 어떤 실시예에 따르면, 상기 구획 데이터 프로세싱 모듈은 상기 구획 데이터를 프로세스 할 수 있다. 본 발명의 또 어떤 실시예에 따르면, 상기 구획 데이터는 다음의 방법으로 프로세스 될 수 있다:According to some embodiments of the invention, the partition data processing module may process the partition data. According to another embodiment of the invention, the partition data can be processed in the following way:

·칼라 - 예를 들어 손바닥과 얼굴을 검출하기 위하여 피부 색을 사용하는 것처럼, 구성 및/또는 빛 변화를 검출하는데 알려진 칼라 파라미터를 사용Color-using known color parameters to detect composition and / or light changes, for example using skin color to detect palms and faces

·움직임 - 프레임에서 움직이는 구성을 검출Motion-detects moving configurations in the frame

·배경 제거Background removal

·에지 검출 - 이미지의 에지를 검출Edge detection-detects edges in images

·텍스츄어 - 구성을 검출하기 위하여 알려진 텍스츄어 파라미터를 사용Texture-uses known texture parameters to detect configuration

본 발명의 어떤 실시예에 따르면, 상기 구획 데이터 프로세싱 모듈은 조직의 상대적인 크기의 편차에 따라 상기 이미지 획득 어셈블리로부터 조직의 거리에서의 편차를 검출할 수 있다. According to some embodiments of the present invention, the partition data processing module may detect a deviation in tissue distance from the image acquisition assembly according to the deviation of the relative size of the tissue.

본 발명의 어떤 실시예에 따르면, 상기 스코어링 모듈은 (1) 상기의 프로세스된 구획 데이터를 조사하고, (2) 상기의 프로세스된 구획 데이터의 질을 평가하고, 그리고 상기 질에 따라 (3) 상기 구획 데이터의 부분들이 상기 HMI 시스템에 의하여 사용되기에 충분히 신뢰할 수 있는지를 결정할 수 있다. According to some embodiments of the invention, the scoring module (1) examines the processed compartment data, (2) evaluates the quality of the processed compartment data, and (3) the It is possible to determine whether parts of the partition data are reliable enough to be used by the HMI system.

본 발명의 어떤 실시예에 따르면, 상기 3차원 골격 예측 모듈은 상기의 프로세스된 이미지에 가장 좋은 매치(match) 또는 상관관계를 가질 수 있는 3차원 골격의 위치를 예측할 수 있다. According to some embodiments of the invention, the 3D skeletal prediction module may predict the location of a 3D skeleton that may have the best match or correlation to the processed image.

본 발명의 또 어떤 실시예에 따르면, 상기 3차원 예측 모듈은 사기 3차원 골격의 위치를 예측하기 위하여 다이나믹 및 모션 프로세스의 세트를 사용할 수도 있다. According to some embodiments of the invention, the three-dimensional prediction module may use a set of dynamic and motion processes to predict the position of a fraudulent three-dimensional skeleton.

본 발명의 어떤 실시예에 따르면, 상기 프로젝션 모듈은 상기 이미지 상에 골격을 투영할 수 있다. 본 발명의 또 어떤 실시예에 따르면, 이러한 투영은 2차원 평면에서 이루어질 수 있다. According to some embodiments of the invention, the projection module may project a skeleton on the image. According to some embodiments of the invention, this projection may be in a two-dimensional plane.

본 발명의 어떤 실시예에 따르면, 상기 피팅 모듈은 구획 데이터를 상기 투영된 골격에 피트(fit)할 수 있다. 본 발명의 또 어떤 실시예에 따르면, 상기 피팅 모듈은 상기 구획 데이터의 일부들을 상기의 투영된 골격의 일부들에 피트할 수 있다. According to some embodiments of the invention, the fitting module may fit compartment data into the projected skeleton. According to some embodiments of the invention, the fitting module may fit portions of the partition data to portions of the projected skeleton.

본 발명의 어떤 실시예에 따르면, 상기 스코어링 및 에러 검출 모듈은 (1) 구획 데이터가 연관된 후에 상기의 프로세스된 골격을 조사하고, (2) 상기의 골격의 피팅 질(fitting quality)을 계산하고, (3) 상기의 골격 예측 프로세스를 하는 동안 또는 구획 데이터의 연관 동안에 에러가 발생하였는지 여부를 결정할 수 있다. According to some embodiments of the invention, the scoring and error detection module (1) examines the processed skeleton after the partition data is associated, (2) calculates the fitting quality of the skeleton, (3) It is possible to determine whether an error has occurred during the skeletal prediction process or during association of partition data.

본 발명의 어떤 실시예에 따르면, 상기 회복 모듈은 검출된 에러를 회복시킬 수 있다. 본 발명의 또 어떤 실시예에 따르면, 이러한 회복은 이미지를 재 구획하고, 올바른 위치를 재 예측하기 위하여 3D 골격 움직임 히스토리를 사용하고, 재 투영 및 상기 3D 골격의 재 피팅을 수행하는 멀티플 프로세싱 레이어(multiple processing layers)의 프로세스에 의해 수행될 수 있다. According to some embodiments of the invention, the recovery module may recover the detected error. According to another embodiment of the present invention, this recovery comprises a multiple processing layer that repartitions the image, uses a 3D skeletal motion history to re-predict the correct position, and performs reprojection and refitting of the 3D skeleton. can be performed by a process of multiple processing layers).

본 발명의 어떤 실시예에 따르면, 상기 3차원 상관관계 모듈은 상기의 피트된 골격의 위치에 따라 3차원 골격의 위치를 업데이트할 수 있다. According to some embodiments of the invention, the three-dimensional correlation module may update the position of the three-dimensional skeleton according to the position of the fitted skeleton.

본 발명의 또 어떤 실시예에 따르면, 상기 업데이트 프로세는 상기의 피트된 골격 상에 상기 3D 골격을 결합시키고, 3D 골격과 피트된 골격 사이를 피트하고, 3D 골격을 올바른 위치로 업데이트한다. According to another embodiment of the present invention, the update processor couples the 3D skeleton on the fit skeleton, fits between the 3D skeleton and the fit skeleton, and updates the 3D skeleton to the correct position.

본 실시예는 상세한 설명의 말미에서 구체적으로 지적되고 분명히 청구되는 발명에 대한 것이다. 그러나, 구성과 동작의 방법과, 이들의 목적, 특징 및 이로운 효과에 관한 본 발명의 설명은 첨부되는 도면들과 상세한 설명에 개시되는 것을 참조하여 이해될 수 있다. This embodiment is directed to the invention specifically pointed out and explicitly claimed at the end of the description. However, the description of the invention with respect to the configuration and method of operation and their purpose, features and beneficial effects can be understood with reference to what is disclosed in the accompanying drawings and the description.

도 1은 본 발명의 어떤 실시예에 따른 시스템을 설명하는 블럭 다이어그램을 보여준다. 1 shows a block diagram illustrating a system according to some embodiments of the invention.

도 2는 본 발명의 어떤 실시예에 따른 HMI 시스템의 단계들을 설명하는 플로우 챠트를 보여준다. 2 shows a flowchart illustrating the steps of an HMI system according to some embodiments of the invention.

도 3은 본 발명의 어떤 실시예에 따른 시스템을 설명하는 블럭 다이어그램을 보여준다. 3 shows a block diagram illustrating a system according to some embodiments of the invention.

도 4는 본 발명의 어떤 실시예에 따른 HMI 시스템의 단계들을 설명하는 플로우 챠트를 보여준다. 4 shows a flow chart illustrating the steps of an HMI system according to some embodiments of the invention.

도 5는 본 발명의 어떤 실시예에 따른 시스템을 설명하는 블럭 다이오그램을 보여준다. 5 shows a block diagram illustrating a system according to some embodiments of the invention.

도 6은 본 발명의 어떤 실시예에 따른 HMI 시스템의 단계들을 설명하는 플로우 챠트를 보여준다. 6 shows a flow chart describing the steps of an HMI system according to some embodiments of the invention.

간결 명확하게 도면을 도시하기 위하여, 반드시 도면에 도시된 구성요소들이 일정한 비율로 그려진 것은 아니다. 예를 들면, 구성요소의 어떠한 치수는 다른 구성요소와의 명확한 차이를 위하여 과장될 수 있다. 그리고, 타당한 것으로 받아들여지는 곳에는, 참조 번호는 동등하거나 유사한 구성요소를 나타내는 도면들 사이에 반복될 수 있다. For the sake of clarity, the components illustrated in the drawings are not necessarily drawn to scale. For example, any dimension of a component may be exaggerated for clarity from other components. And where considered reasonable, reference numerals may be repeated among the figures that represent equivalent or similar components.

아래의 상세한 설명에서는, 본 발명의 충분한 이해를 돕기 위한 여러가지 상세한 설명이 수행된다. 그러나, 상세한 설명이 없더라도 본 발명의 당업자가 납득할 수 있는 사항은 이해될 수 있는 것이다. 다른 경우에, 잘 알려진 방법, 절차, 구성요소 및 회로들은 본 발명이 모호해지지 않도록 하는 범위에서 상세한 설명은 생략된다. In the following detailed description, various detailed descriptions are made to help a thorough understanding of the present invention. However, even without a detailed description, those skilled in the art can understand the matter. In other instances, well-known methods, procedures, components, and circuits have been omitted from the scope of the invention so as not to obscure the present invention.

반면에, 상세히 기술되지 않는다면, 아래의 논의로부터 명백해지는 것처럼, 컴퓨팅 시스템의 메모리, 레지스터이거나 이러한 다른 정보 저장매체, 전송 또는 디스플레이 장치 내에 물리적인 양으로 단순히 표현되는 다른 데이터에 컴퓨팅 시스템의 레지스터 및/또는 메모리를 갖는 양인 전자와 같이, 물리적으로 표현되는 데이터를 다루는 및/또는 변형하는 컴퓨터 또는 컴퓨팅 시스템 또는 이와 유사한 전자 컴퓨팅 디바이스의 동작 및/또는 프로세스에 관한 "프로세싱", "컴퓨팅(연산)", "계산", "결정" 또는 이와 유사한 용어를 사용하는 상세한 설명 전체를 통하여 이해된다. On the other hand, if not described in detail, as will be apparent from the discussion below, the registers and / or registers of the computing system are in memory, registers, or other data that are simply represented in physical quantities in such other information storage media, transmissions, or display devices. Or " processing ", " computing ", relating to the operation and / or process of a computer or computing system or similar electronic computing device that deals with and / or transforms physically represented data, such as an electron with a quantity having memory. It is understood throughout the detailed description using the term "calculation", "determination" or similar terms.

본 발명의 실시예들은 이러한 것을 고려한 동작을 수행하는 장치를 포함할 수 있다. 이 장치는 요구에 맞게 특별히 만들어질 수 있으며, 또는 컴퓨터에 저장된 컴퓨터 프로그램에 의하여 선택적으로 활성화되거나 다시 구성되는 일반 목적의 컴퓨터를 포함할 수 있다. 컴퓨터 프로그램은 읽기 가능한 저장 매체내에 저장될 수 있으며, 저장 매체는 플로피 디스크, 광 디스크, CD-ROMs, 자기-광 디스크, ROMs(read-only memories), RAMs(read-only memories), EPROMs(random access memories(RAMs) electrically programmable read-only memories), EEPROMs(electrically erasable and programmable read only memories), 자기 또는 광 카드, 또는 전기적인 지시를 저장하고 컴퓨터 시스템 버스에 연결가능하기에 적합한 다른 타입의 미디어가 될 수 있으나, 반드시 여기에 한정되는 것은 아니다. Embodiments of the present invention may include an apparatus for performing an operation in consideration of this. The device may be specially made to suit the needs or may comprise a general purpose computer which is selectively activated or reconfigured by a computer program stored in the computer. Computer programs may be stored in readable storage media, which may include floppy disks, optical disks, CD-ROMs, magneto-optical disks, read-only memories (ROMs), read-only memories (RAMs), and EPROMs (random). access memories (RAMs) electrically programmable read-only memories (EEPROMs), electrically erasable and programmable read only memories (EEPROMs), magnetic or optical cards, or other types of media suitable for storing electrical instructions and being connectable to a computer system bus. May be, but is not necessarily limited thereto.

본 발명의 어떤 실시예에 따르면, 3D 인간 기계 인터페이스("3D HMI")가 제 공되며, 3D HMI는 (1) 이미지 획득 어셈블리, (2) 초기화 모듈, (3) 이미지 구획 모듈, (4) 구획 데이터 프로세싱 모듈, (5) 스코어링(scoring) 모듈, (6) 프로젝션 모듈, (7) 피팅(fitting) 모듈, (8) 스코어링 및 에러 검출 모듈, (9) 회복 모듈, (10) 3차원 상관관계 모듈, (11) 3차원 골격 예측 모듈, 및 (12) 출력 모듈을 포함할 수 있다. According to some embodiments of the present invention, a 3D human machine interface (“3D HMI”) is provided, wherein the 3D HMI comprises (1) an image acquisition assembly, (2) an initialization module, (3) an image partition module, (4) Compartment data processing module, (5) scoring module, (6) projection module, (7) fitting module, (8) scoring and error detection module, (9) recovery module, (10) three-dimensional correlation Relationship module, (11) three-dimensional skeletal prediction module, and (12) output module.

본 발명의 어떤 실시예에 따르면, 상기 이미지 획득 어셈블리는 세트의 이미지를 획득하며, 여기서, 대체로 각각의 이미지는 시간상 다른 지점에 관련된다. 본 발명의 또 어떤 실시예에 따르면, 이미지는 단일의 사용자 또는 다수의 사용자가 될 수 있다. According to some embodiments of the invention, the image acquisition assembly acquires a set of images, where each image is generally associated with a different point in time. According to another embodiment of the present invention, the image may be a single user or multiple users.

본 발명의 어떤 실시예에 따르면, 상기 초기화 모듈은 사용자의 (1) 칼라, (2) 조직 파라미터(organ's parameter), 환경, 및 사용자에 관련되는 다른 파라미터를 검출하고 정의할 수 있으며, 다음 단계(쓰레스홀드(thresholds), 모든 이미지 구획을 위한 스코어등)에서 이미지 구획을 위한 가장 좋은 방법을 결정할 수 있다. According to some embodiments of the invention, the initialization module may detect and define (1) color of the user, (2) organization's parameters, environment, and other parameters related to the user. Thresholds, scores for all image segments, etc.) can determine the best method for image segmentation.

본 발명의 어떤 실시예에 따르면, 이미지 구획 모듈은 이미지로부터 구획 데이터를 추출할 수 있다. 본 발명의 또 어떤 실시예에 따르면, 상기의 구획 데이터는 아래의 사항을 포함한다.According to some embodiments of the invention, the image partition module may extract partition data from an image. According to another embodiment of the present invention, the partition data includes the following.

·칼라(color)Color

·움직임(movement)Movement

·에지 검출(edge detection)Edge detection

·텍스츄어(texture)Texture

본 발명의 어떤 실시예에 따르면, 상기의 구획 데이터 프로세싱 모듈은 상기의 구획 데이터를 프로세스할 수 있다. 본 발명의 또 어떤 실시예에 따르면, 상기의 구획 데이터는 다음과 같은 방법에 의하여 프로세스될 수 있다.According to some embodiments of the present invention, the partition data processing module may process the partition data. According to another embodiment of the present invention, the partition data may be processed by the following method.

·칼라 - 예를 들어 손바닥과 얼굴을 검출하기 위하여 피부 색을 사용하는 것처럼, 구성 및/또는 빛 변화를 검출하는데 알려진 칼라 파라미터를 사용Color-using known color parameters to detect composition and / or light changes, for example using skin color to detect palms and faces

·움직임 - 프레임에서 움직이는 구성을 검출Motion-detects moving configurations in the frame

·에지 검출 - 이미지의 에지를 검출Edge detection-detects edges in images

·텍스츄어 - 구성을 검출하기 위하여 알려진 텍스츄어 파라미터를 사용Texture-uses known texture parameters to detect configuration

본 발명의 어떤 실시예에 따르면, 상기 스코어링 모듈은 (1) 프로세스된 구획 데이터를 조사하고, (2) 상기의 프로세스된 구획 데이터의 질을 측정하고, 이 질에 따라 (3) 상기 구획 데이터의 부분들이 상기 HMI 시스템에 의하여 사용되기에 충분히 신뢰할 수 있는지를 결정할 수 있다. According to some embodiments of the present invention, the scoring module (1) examines the processed partition data, (2) measures the quality of the processed partition data, and according to this quality (3) It can be determined whether the parts are reliable enough to be used by the HMI system.

본 발명의 어떤 실시예에 따르면, 3차원 골격 예측 모듈은 상기의 프로세스된 이미지와 가장 좋은 매치(match) 또는 상관관계를 가질 수 있는 3차원 골격의 위치를 예측할 수 있다. According to some embodiments of the present invention, the 3D skeletal prediction module may predict the position of the 3D skeleton that may have the best match or correlation with the processed image.

본 발명의 다른 실시예에 의하면, 3차원 예측 모듈은, 예를 들어, 상기 골격이 인간 형상인 경우에 골격의 머리는 360도 회전될 수 없는 것처럼, 상기의 사용된 골격의 타입으로부터 유도되는 제한사항을 사용할 수 있다. According to another embodiment of the present invention, the three-dimensional prediction module is limited in that it is derived from the type of skeleton used above, for example if the skeleton's head cannot be rotated 360 degrees when the skeleton is a human shape. Can be used.

본 발명의 또 어떤 실시예에 따르면, 3차원 예측 모듈은 다이나믹 및 모션 프로세스의 세트를 사용하여 상기 3차원 골격의 위치를 예측할 수 있다. According to some embodiments of the invention, the three-dimensional prediction module may predict the position of the three-dimensional skeleton using a set of dynamic and motion processes.

본 발명의 어떤 실시예에 따르면, 상기 프로젝션 모듈은 상기 이미지 상에 골격을 투영할 수 있다. 본 발명의 또 어떤 실시예에 따르면, 투영은 2차원 평면에서 이루어질 수 있다. According to some embodiments of the invention, the projection module may project a skeleton on the image. According to some embodiments of the invention, the projection may be in a two-dimensional plane.

본 발명의 어떤 실시예에 따르면, 상기 피팅 모듈은 구획 데이터를 상기 투영된 골격에 피트(fit)할 수 있다. 본 발명의 또 어떤 실시예에 따르면, 상기 피팅 모듈은 상기 구획 데이터의 일부들을 상기의 투영된 골격의 일부들에 피트할 수 있다. According to some embodiments of the invention, the fitting module may fit compartment data into the projected skeleton. According to some embodiments of the invention, the fitting module may fit portions of the partition data to portions of the projected skeleton.

본 발명의 어떤 실시예에 따르면, 상기 스코어링 및 에러 검출 모듈은 (1) 구획 데이터가 결합된 후에 상기의 프로세스된 골격을 조사하고, (2) 상기의 골격의 피팅 질(fitting quality)을 계산하고, (3) 상기의 골격 예측 프로세스를 하는 동안 또는 구획 데이터의 연관 동안에 에러가 발생하였는지 여부를 결정할 수 있다. According to some embodiments of the invention, the scoring and error detection module (1) examines the processed skeleton after the partition data has been combined, (2) calculates the fitting quality of the skeleton and (3) It may be determined whether an error occurred during the skeletal prediction process or during association of the partition data.

본 발명의 어떤 실시예에 따르면, 상기 회복 모듈(recovery module)은 검출된 에러를 회복시킬 수 있다. 본 발명의 또 어떤 실시예에 따르면, 이러한 회복은 이미지를 재 구획하고, 올바른 위치를 재 예측하기 위하여 3D 골격 움직임 히스토리를 사용하고, 재 투영 및 상기 3D 골격의 재 피팅을 수행하는 멀티플 프로세싱 레이어(multiple processing layers)의 프로세스에 의해 수행될 수 있다. According to some embodiments of the invention, the recovery module can recover the detected error. According to another embodiment of the present invention, this recovery comprises a multiple processing layer that repartitions the image, uses a 3D skeletal motion history to re-predict the correct position, and performs reprojection and refitting of the 3D skeleton. can be performed by a process of multiple processing layers).

본 발명의 어떤 실시예에 따르면, 상기 3차원 상관관계 모듈은 상기의 피트된 골격의 위치에 따라 3차원 골격의 위치를 업데이트할 수 있다. According to some embodiments of the invention, the three-dimensional correlation module may update the position of the three-dimensional skeleton according to the position of the fitted skeleton.

본 발명의 또 어떤 실시예에 따르면, 상기 업데이트 프로세는 상기의 피트된 골격 상에 상기 3D 골격을 결합시키고, 3D 골격과 피트된 골격 사이를 피트하고, 3D 골격을 올바른 위치로 업데이트한다. According to another embodiment of the present invention, the update processor couples the 3D skeleton on the fit skeleton, fits between the 3D skeleton and the fit skeleton, and updates the 3D skeleton to the correct position.

도 1을 참조하여 보면, 본 발명의 어떤 실시예에 따른 예시적인 HMI 시스템이 도시되어 있으며, 이러한 HMI 시스템의 단계들을 기술하는 플로우 챠트가 도시된 도 2와 함께 더욱 잘 설명될 수 있다. Referring to FIG. 1, an exemplary HMI system is shown in accordance with some embodiments of the invention, and a flow chart describing the steps of such an HMI system can be better described with FIG. 2.

본 발명의 어떤 실시예에 따르면, 도 1에는 3D 인간 기계 인터페이스(3D HMI라고 함)가 개시되고, 상기 3D HMI는 (1) 이미지 획득 어셈블리(image acquisition assembly,1000), (2) 초기화 모듈(initializing module,1100), (3) 이미지 구획 모듈(image segmentation module,1200), (4) 구획 데이터 프로세싱 모듈(segmented data processing module,1300), (5) 스코어링 모듈(scoring module,1400), (6) 프로젝션 모듈(projection module,1450), (7) 피팅 모듈(fitting module,1500), (8) 스코어링 및 에러 검출 모듈(scoring and error detection module,1550), (9) 회복 모듈(recovery module,1600), (10) 3차원 상관관계 모듈(three dimensional correlation module,1700), (11) 3차원 골격 예측 모듈(three dimensional skeleton prediction module,1800), 및 (12) 출력 모듈(output module,1900)을 포함한다. According to some embodiments of the invention, FIG. 1 discloses a 3D human machine interface (referred to as 3D HMI), which comprises (1) an image acquisition assembly (1000), (2) an initialization module ( initializing module (1100), (3) image segmentation module (1200), (4) segmented data processing module (1300), (5) scoring module (1400), (6 ) Projection module (1450), (7) fitting module (1500), (8) scoring and error detection module (1550), (9) recovery module (1600). ), (10) three dimensional correlation module (1700), (11) three dimensional skeleton prediction module (1800), and (12) output module (1900). Include.

본 발명의 어떤 실시예에 따르면, 상기 이미지 획득 어셈블리는, 단계 2000에 보여지는 바과 같이, 이미지의 세트를 획득하고, 실질적으로 각각의 이미지는 시간상 다른 지점에 관련된다. 본 발명의 다른 어떤 실시예에 따르면, 상기 이미지는 단일의 사용자 또는 다수의 사용자가 될 수 있다. According to some embodiments of the invention, the image acquisition assembly acquires a set of images, as shown in step 2000, wherein substantially each image is associated with a different point in time. According to some other embodiments of the invention, the image may be a single user or multiple users.

본 발명의 다른 어떤 실시예에 따르면, 상기 이미지 획득 어셈블리는 디지털 카메라, 웹 카메라, 필름 카메라, 비디오 카메라, 웹 카메라, 디지털 비디오 카메라, 아날로그 비디오 카메라, 스테레오 카메라 및/또는 오늘날 알려진 다른 종류의 카메라 또는 미래에 나올 어떤 종류의 카메라를 포함할 수 있다. According to some other embodiments of the invention, the image acquisition assembly may comprise a digital camera, a web camera, a film camera, a video camera, a web camera, a digital video camera, an analog video camera, a stereo camera and / or another type of camera known today or It can include any kind of camera that will come in the future.

본 발명의 어떤 실시예에 따르면, 상기 시스템이 하나 또는 그 이상의 이미지를 획득한 다음에는, 상기 시스템은 초기화 단계(단계 2100)로 진입하고, 이는 상기 초기화 모듈(1100)에 의하여 수행된다. 초기화 모듈은 (1) 칼라, (2) 조직 파라미터(organ's parameter), (3) 환경, 및 사용자에 관련되는 다른 파라미터를 검출하고 정의할 수 있다. According to some embodiments of the invention, after the system acquires one or more images, the system enters an initialization step (step 2100), which is performed by the initialization module 1100. The initialization module may detect and define (1) color, (2) organization's parameters, (3) environment, and other parameters related to the user.

본 발명의 어떤 실시예에 따르면, 상기 시스템은, 단계 2200에 보여지는 바와 같이, 구획 데이터를 추출할 수 있으며, 상기의 구획 데이터는 아래의 사항을 포함한다. According to some embodiments of the invention, the system may extract partition data, as shown in step 2200, wherein the partition data includes the following.

·칼라(color)Color

·움직임(movement)Movement

·에지 검출(edge detection)Edge detection

·텍스츄어(texture)Texture

본 발명의 또 어떤 실시예에 따르면, 상기 이미지 구획 모듈(1200)은 이미지로부터 상기 구획 데이터를 추출할 수 있다.According to another embodiment of the present invention, the image partition module 1200 may extract the partition data from an image.

본 발명의 어떤 실시예에 따르면, 상기 시스템은, 단계 2300에 보여지는 바과 같이, 상기 구획 데이터를 프로세스할 수 있다. 본 발명의 또 어떤 실시예에 따 르면, 상기 구획 데이터는 다음과 같은 방법에 의하여 프로세스될 수 있다. According to some embodiments of the present invention, the system may process the partition data, as shown in step 2300. According to another embodiment of the present invention, the partition data may be processed by the following method.

·칼라 - 예를 들어 손바닥과 얼굴을 검출하기 위하여 피부 색을 사용하는 것처럼, 구성 및/또는 빛 변화를 검출하는데 알려진 칼라 파라미터를 사용Color-using known color parameters to detect composition and / or light changes, for example using skin color to detect palms and faces

·움직임 - 프레임에서 움직이는 구성을 검출Motion-detects moving configurations in the frame

·배경 제거Background removal

·에지 검출 - 이미지의 에지를 검출Edge detection-detects edges in images

·텍스츄어 - 구성을 검출하기 위하여 알려진 텍스츄어 파라미터를 사용Texture-uses known texture parameters to detect configuration

본 발명의 또 어떤 실시예에 따르면, 상기 구획 데이터 프로세싱 모듈(1300)은 상기 구획 데이터를 프로세스할 수 있다. According to another embodiment of the present invention, the partition data processing module 1300 may process the partition data.

본 발명의 어떤 실시예에 따르면, 상기 시스템은, 단계 2400에 보여지는 바과 같이, 상기 구획 데이터의 질을 평가할 수 있으며, 이러한 평가는 (1) 상기의 프로세스된 구획 데이터를 조사하고, (2) 상기의 프로세스된 구획 데이터의 질을 추정하고, 추정된 질에 따라 (3) 상기 구획 데이터 부분이 상기 HMI 시스템에 의하여 사용되기에 충분히 신뢰할 수 있는지를 결정하는 것에 의하여 수행된다. According to some embodiments of the present invention, the system may assess the quality of the partition data, as shown in step 2400, which assessment may comprise (1) examining the processed partition data and (2) By estimating the quality of the processed partition data, and determining (3) whether the section data portion is reliable enough for use by the HMI system according to the estimated quality.

본 발명의 또 어떤 실시예에 따르면, 상기 스코어링 모듈(1400)은 상기 구획 정보의 질을 평가할 수 있다. According to another embodiment of the present invention, the scoring module 1400 may evaluate the quality of the partition information.

본 발명의 다른 실시예에 따르면, 상기 시스템은, 단계 2800에 보여지는 바와 같이, 3차원 골격의 위치를 예측할 수 있으며, 그 위치는 프로세스된 이미지와 가장 좋은 매치 또는 상관관계를 가질 것이다. 본 발명의 또 어떤 실시예에 따르면, 이러한 예측은, 예를 들어 상기 골격이 인간 형상인 경우에 골격의 머리는 어 깨의 움직임 없이 360도 회전될 수 없는 것처럼, 상기 골격의 타입으로부터 유도되는 제한사항을 사용하여 좀 더 정확해질 수 있다. According to another embodiment of the present invention, the system can predict the location of the three-dimensional skeleton, as shown in step 2800, which location will have the best match or correlation with the processed image. According to another embodiment of the present invention, this prediction is a limitation derived from the type of the skeleton, for example when the skeleton is of human shape, the head of the skeleton cannot be rotated 360 degrees without the movement of the shoulder. To make it more accurate.

본 발명의 어떤 실시예에 따르면, 상기 예측 결과는 다이나믹 및 모션 프로세스 등을 사용할 수 있다. According to some embodiments of the present invention, the prediction result may use dynamic and motion processes and the like.

본 발명의 어떤 실시예에 따르면, 상기 3차원 골격 예측 모듈(1800)은 3차원 골격의 위치를 예측할 수 있다. According to some embodiments of the present invention, the 3D skeleton prediction module 1800 may predict the position of the 3D skeleton.

본 발명의 어떤 실시예에 따르면, 상기 시스템은, 단계 2450에 보여지는 바와 같이, 상기 이미지 상에 상기 골격을 투영할 수 있다. 본 발명의 또 어떤 실시예에 따르면, 이러한 예측은 2차원 평면에도 적용될 수 있다.According to some embodiments of the present invention, the system may project the skeleton onto the image, as shown in step 2450. According to some embodiments of the invention, this prediction can be applied to a two-dimensional plane.

본 발명의 어떤 실시예에 따르면, 상기 프로젝션 모듈(2450)은 상기 이미지 상에 상기 골격을 투영할 수 있다. According to some embodiments of the invention, the projection module 2450 may project the skeleton on the image.

본 발명의 어떤 실시예에 따르면, 상기 시스템은, 단계 2500에 보여지는 바와 같이, 상기 구획 데이터를 상기의 투영된 골격에 피트시키는 것이 가능하다. 본 발명의 또 어떤 실시예에 따르면, 이러한 피팅 프로세스는 상기 구획 데이터의 일부를 상기의 투영된 골격의 일부에 피트시키는 것을 포함한다. According to some embodiments of the invention, the system is capable of fitting the partition data to the projected skeleton as shown in step 2500. According to some embodiments of the invention, this fitting process includes fitting a portion of the partition data to a portion of the projected skeleton.

본 발명의 어떤 실시예에 따르면, 상기 구획 데이터를 피트하는 것은 상기의 추출된 구획 데이터의 일부를 현재의 골격 파라미터에 관련시키는 것을 포함하고, 여기서 현재 골격 파라미터는 추출된 구획 데이터의 관련된 부분들을 제공할 수 있다.According to some embodiments of the present invention, fitting the partition data includes associating a portion of the extracted partition data with a current skeleton parameter, wherein the current skeleton parameter provides relevant portions of the extracted partition data. can do.

본 발명의 또 어떤 실시예에 따르면, 이러한 프로세스의 결과는 "피트된 골 격"이다. According to another embodiment of the present invention, the result of this process is a "pitted backbone".

본 발명의 또 어떤 실시예에 따르면, 상기 피팅 모듈(2500)은 상기 구획 데이터를 상기의 투영된 골격에 결합시킬 수 있다. According to some embodiments of the invention, the fitting module 2500 may couple the partition data to the projected skeleton.

본 발명의 어떤 실시예에 따르면, 상기 시스템은, 단계 2550에 보여지는 바와 같이, 상기의 피트된 골격에 점수를 부여하고, 에러를 검출할 수 있다. 본 발명의 어떤 실시예에 따르면, 점수를 부여하고 에러를 검출하는 것은 (1) 상기의 피트된 골격을 조사하고, (2) 상기의 골격의 피팅 질을 평가하고, (3) 상기 골격 예측 프로세스를 하는 동안 또는 구획 데이터를 연결시키는 동안에 에러가 발생하였는지 여부를 결정하는 것을 포함한다. According to some embodiments of the present invention, the system may score the fitted skeleton and detect errors, as shown in step 2550. According to some embodiments of the present invention, scoring and detecting errors include (1) examining the fitted skeleton, (2) assessing the fitting quality of the skeleton, and (3) the skeletal prediction process. Determining whether an error has occurred during or while connecting partition data.

본 발명의 어떤 실시예에 따르면, 상기 스코어링 및 에러 검출 모듈(1550)은 점수를 부여하고 에러를 검출할 수 있다. According to some embodiments of the invention, the scoring and error detection module 1550 may assign scores and detect errors.

본 발명의 어떤 실시예에 따르면, 단계 2550에서 에러가 검출되는 경우에, 상기 시스템은, 단계 2600에 보여지는 바와 같이, 회복 단계로 진입할 수 있다. 이러한 회복 프로세스는 멀티플 프로세싱 레이어의 프로세스가 될 수 있다. According to some embodiments of the invention, if an error is detected in step 2550, the system may enter a recovery step, as shown in step 2600. This recovery process can be a process of multiple processing layers.

본 발명의 어떤 실시예에 따르면, 상기의 회복 단계는 상기 이미지를 재-구획하고, 상기 3D 골격 위치를 재-예측하고, 재-투영하며, 상기 골격을 재-피팅하는 수고를 다시 수행하는 것을 포함한다. 또한, 본 발명의 또 어떤 실시예에 따르면, 상기 이미지 정보에 오류가 있는 경우에, 상기 시스템은 하나의 프레임 또는 그 이상을 스킵할 것을 결정할 수 있다. According to some embodiments of the invention, said restoring step comprises re-partitioning the image, re-predicting the 3D skeletal position, re-projecting, and re-fitting the skeleton again. Include. Further, according to another embodiment of the present invention, in case of an error in the image information, the system may determine to skip one frame or more.

본 발명의 어떤 실시예에 따르면, 회복이 수행되는 동안 상기 시스템은 객체 의 추적이 상기 프레임 내에 있지 않은 객체를 검출할 수 있다. 본 발명의 또 어떤 실시예에 따르면, 상기 시스템은 상기 객체가 상기 프레임으로 돌아올 때까지 하나 또는 그 이상의 프레임을 스킵할 수 있다. According to some embodiments of the invention, while recovery is performed, the system may detect an object whose tracking is not within the frame. According to another embodiment of the present invention, the system may skip one or more frames until the object returns to the frame.

본 발명의 또 어떤 실시예에 따르면, 상기의 회복 단계는 상기 시스템을 상기의 초기화 단계로 돌릴 수 있다. According to another embodiment of the present invention, the recovering step may return the system to the initializing step.

본 발명의 어떤 실시예에 따르면, 상기 회복 모듈(2600)은 상기의 회복 프로세스를 수행할 수 있다. According to some embodiments of the invention, the recovery module 2600 may perform the recovery process.

본 발명의 어떤 실시예에 따르면, 단계 2550 동안에 에러가 검출되지 않은 경우에, 상기 시스템은, 단계 2700에 보여지는 바와 같이, 상기 3차원 골격의 일부를 상기의 피트된 골격의 일부로 업데이트할 수 있다. 본 발명의 또 어떤 실시예에 따르면, 상기의 업데이트 프로세스는 (1) 상기의 피트된 골격 상에 3D 골격을 투영하고, (2) 상기 3D 골격을 상기의 피트된 골격에 결합시키고, (3) 상기 3D 골격의 위치를 업데이트하는 것을 포함할 수 있다. According to some embodiments of the invention, if no error is detected during step 2550, the system may update a portion of the three-dimensional skeleton with a portion of the fitted skeleton, as shown in step 2700. . According to another embodiment of the invention, the update process comprises (1) projecting a 3D skeleton onto the fitted skeleton, (2) coupling the 3D skeleton to the fitted skeleton, and (3) It may include updating the position of the 3D skeleton.

본 발명의 어떤 실시예에 따르면, 상기 3차원 상관관계 모듈(1700)은 상기 3차원 골격의 위치를 업데이트할 수 있다. According to some embodiments of the invention, the three-dimensional correlation module 1700 may update the position of the three-dimensional skeleton.

본 발명의 어떤 실시예에 따르면, 상기 3차원 상관관계 모듈(1700)과 골격 예측 모듈(1800)은, 본 출원인과 동일한 출원인으로 2005년 7월 31일에 출원된 PCT/IL2005/000813호의 PCT출원에 기재되어 있는 알고리즘 및 프로세스의 일부 또는 전부를 사용할 수 있다. According to some embodiments of the invention, the three-dimensional correlation module 1700 and skeletal prediction module 1800, PCT application of PCT / IL2005 / 000813 filed on July 31, 2005 as the same applicant Some or all of the algorithms and processes described herein may be used.

도 3을 참조하여 보면, 본 발명의 어떤 실시예에 따른 예시적인 HMI 시스템 이 도시되어 있고, 이러한 시스템의 단계들을 기술하는 플로우 챠트가 도시된 도 4와 함께 더욱 잘 설명될 수 있다. Referring to FIG. 3, an exemplary HMI system in accordance with certain embodiments of the present invention is shown and a flow chart describing the steps of such a system may be better described with FIG. 4.

본 발명의 어떤 실시예에 따르면, 도 3에는 3D 인간 기계 인터페이스(3D HMI라고 함)가 개시되고, 상기 3D HMI는 (1) Z-렌즈(Zlens) 이미지 획득 어셈블리(3000), (2) 초기화 모듈(3100), (3) 이미지 구획 모듈(3200), (4) 구획 데이터 프로세싱 모듈(3300), (5) 피팅 모듈(3500), (6) 스코어링 모듈(3550), (7) 3차원 상관관계 모듈(3700), 및 (8) 출력 모듈(3900)을 포함한다. According to some embodiments of the invention, FIG. 3 discloses a 3D human machine interface (called a 3D HMI), wherein the 3D HMI comprises (1) a Z-lens image acquisition assembly 3000, (2) initialization. Module 3100, (3) image partition module 3200, (4) partition data processing module 3300, (5) fitting module 3500, (6) scoring module 3550, (7) three-dimensional correlation Relationship module 3700, and (8) output module 3900.

본 발명의 어떤 실시예에 따르면, 상기 Z-렌즈 획득 어셈블리는, 단계 4000에 보여지는 바와 같이, 이미지 세트를 획득할 수 있으며, 특히, 각각의 이미지는 실질적으로 시간상 다른 위치에 연결된다. 본 발명의 또 어떤 실시예에 따르면, 상기 이미지는 단일의 사용자 또는 다수의 사용자일 수 있다. According to some embodiments of the invention, the Z-lens acquisition assembly can acquire a set of images, as shown in step 4000, in particular, each image being substantially connected to a different location in time. According to some embodiments of the invention, the image may be a single user or multiple users.

본 발명의 어떤 실시예에 따르면, 상기 Z-렌즈 획득 어셈블리는 도 1에 도면부호 1000으로 도시된 구성요소와는 다른 이미지 획득 어셈블리에 마운트될 수 있다. According to some embodiments of the invention, the Z-lens acquisition assembly may be mounted in an image acquisition assembly other than the component shown at 1000 in FIG. 1.

본 발명의 또 어떤 실시예에 따르면, 상기 Z-렌즈 획득 어셈블리(3000)는, 본 출원인과 동일한 출원인으로 2006년 10월 31일에 출원된 PCT/IL2006/001254와, 본 출원인과 동일한 출원인으로 2005년 10월 31일에 출원된 US 60/731,274호의 미국 특허출원과 관련하여 더욱 잘 설명될 수 있다. According to another embodiment of the present invention, the Z-lens acquisition assembly 3000 is the same applicant as PCT / IL2006 / 001254 filed on October 31, 2006, and the same applicant as the applicant. This may be better explained in connection with the US patent application of US 60 / 731,274 filed October 31, 1989.

본 발명의 어떤 실시예에 따르면, 상기 시스템은, 단계 4100에 보여되는 바와 같이, 상기 초기화 모듈(3100)에 의하여 수행되는 초기화 단계로 진입할 수 있 다. 초기화 모듈은 사용자의 (1) 칼라, (2) 조직 파라미터(organ's parameter), 환경, 및 (3) 사용자에 관련되는 다른 파라미터를 검출하고 정의할 수 있다. According to some embodiments of the invention, the system may enter an initialization step performed by the initialization module 3100, as shown in step 4100. The initialization module may detect and define the user's (1) color, (2) organization's parameters, environment, and (3) other parameters related to the user.

본 발명의 어떤 실시예에 따르면, 상기 시스템은, 단계 4200에 보여지는 바와 같이, 구획 데이터를 추출할 수 있으며, 상기의 구획 데이터는 아래의 사항을 포함한다. According to some embodiments of the invention, the system may extract partition data, as shown in step 4200, wherein the partition data includes the following.

·칼라(color)Color

·움직임(movement)Movement

·에지 검출(edge detection)Edge detection

·텍스츄어(texture)Texture

본 발명의 또 어떤 실시예에 따르면, 상기 이미지 구획 모듈(3200)은 이미지로부터 상기 구획 데이터를 추출할 수 있다. According to another embodiment of the present invention, the image partition module 3200 may extract the partition data from an image.

본 발명의 어떤 실시예에 따르면, 단계 4300에 보여지는 바와 같이, 상기 구획 데이터를 프로세스할 수 있다. 본 발명의 또 어떤 실시예에 따르면, 상기 구획 데이터는 아래와 같은 방법에 의하여 프로세스 될 수 있다. According to some embodiments of the invention, the partition data may be processed, as shown in step 4300. According to another embodiment of the present invention, the partition data may be processed by the following method.

·칼라 - 예를 들어 손바닥과 얼굴을 검출하기 위하여 피부 색을 사용하는 것처럼, 구성 및/또는 빛 변화를 검출하는데 알려진 칼라 파라미터를 사용.Color-using known color parameters to detect composition and / or light changes, for example using skin color to detect palms and faces.

·움직임 - 프레임에서 움직이는 구성을 검출Motion-detects moving configurations in the frame

·배경 제거Background removal

·에지 검출 - 이미지의 에지를 검출Edge detection-detects edges in images

·텍스츄어 - 구성을 검출하기 위하여 알려진 텍스츄어 파라미터를 사용Texture-uses known texture parameters to detect configuration

본 발명의 또 어떤 실시예에 따르면, 상기 구획 데이터 프로세싱 모듈(3300)은 상기 구획 데이터를 프로세스할 수 있다. According to another embodiment of the present invention, the partition data processing module 3300 may process the partition data.

본 발명의 어떤 실시예에 따르면, 상기 시스템은, 단계 4500에 보여지는 바와 같이, 상기의 추출된 구획 데이터의 일부를 상기의 획득된 이미지로 피트시킬 수 있다. 본 발명의 또 어떤 실시예에 따르면, 이러한 피팅 프로세스는 상기의 추출된 구획 데이터의 부분들을 상기의 획득된 이미지의 관련 영역들에 결합시키는 것을 포함할 수 있다. According to some embodiments of the present invention, the system may fit a portion of the extracted partition data into the obtained image, as shown in step 4500. According to some embodiments of the invention, this fitting process may comprise combining the portions of said extracted partition data to relevant areas of said obtained image.

본 발명의 또 어떤 실시예에 따르면, 상기의 관련 영역은 시스템에 저장되거나 상기의 초기화 단계 동안 결정될 수 있다. 본 발명의 또 어떤 실시예에 따르면, 상기의 관련 영역은 사용자의 특수 조직(손, 머리, 다리)이거나 단계 3000에서 획득되는 다른 구성일 수 있다. According to another embodiment of the present invention, the relevant area may be stored in the system or determined during the initialization step. According to another embodiment of the present invention, the relevant area may be a special tissue (hand, head, leg) of the user or another configuration obtained in step 3000.

본 발명의 또 어떤 실시예에 따르면, 이러한 피팅 프로세스는 추출된 구획 데이터가 상기 관련 영역과 연관된 파라미터를 정의하는지 여부를 테스트하는 것을 포함할 수 있다. According to some embodiments of the invention, this fitting process may include testing whether the extracted partition data defines a parameter associated with the relevant region.

본 발명의 또 어떤 실시예에 따르면, 상기 피팅 모듈(3500)은 상기 구획 데이터를 상기의 획득된 이미지에 결합시킬 수 있다. According to some embodiments of the present invention, the fitting module 3500 may couple the partition data to the obtained image.

본 발명의 또 어떤 실시예에 따르면, 이러한 프로세스의 결과는 "피트된 이미지"이다. According to another embodiment of the invention, the result of this process is a "fitted image".

본 발명의 어떤 실시예에 따르면, 상기 시스템은, 단계 4550에 보여지는 바와 같이, 상기의 피트된 구획 데이터의 질을 평가할 수 있다. 본 발명의 어떤 실시 예에 따르면, 상기의 피트된 구획 데이터의 질을 평가하는 것은, (1) 상기의 프로세스된 구획 데이터를 조사하고, (2) 상기의 프로세스된 구획 데이터의 질을 추정하고, 추정된 질에 따라 (3) 상기 구획 데이터의 부분들이 상기 HMI 시스템에 의하여 사용되기에 충분히 신뢰할 수 있는지를 결정하고, (4) 상기의 피트된 이미지를 조사하고, (5) 상기의 이미지의 피팅 질을 평가하고, (6) 구획 데이터를 결합시키는 동안에 에어가 발생하였는지 여부를 결정하는 것을 포함한다. According to some embodiments of the present invention, the system may evaluate the quality of the fitted segmented data, as shown in step 4550. According to some embodiments of the present invention, evaluating the quality of the fitted partitioned data includes (1) examining the processed partitioned data, (2) estimating the quality of the processed partitioned data, According to the estimated quality, (3) determine whether the parts of the partition data are reliable enough for use by the HMI system, (4) examine the fitted image, and (5) fit the image above. Assessing quality and (6) determining whether air has occurred during the combining of the compartment data.

본 발명의 어떤 실시예에 따르면, 상기 스코어링 모듈(3550)은 상기의 피트된 구획 데이터의 질을 평가할 수 있다. According to some embodiments of the invention, the scoring module 3550 may evaluate the quality of the fit partition data.

본 발명의 또 어떤 실시예에 따르면, 상기 시스템은 위에서 언급한 바와 같은 에러 검출 메커니즘과 회븍 메커니즘을 포함할 수 있다. According to another embodiment of the present invention, the system may include an error detection mechanism and a rounding mechanism as mentioned above.

본 발명의 어떤 실시예에 따르면, 상기 시스템은, 단계 4700에 보여지는 바와 같이, 상기의 피트된 이미지에 따라 3차원 바디(body)의 위치와, 상기 Z-렌즈 이미지 획득 어셈블리를 사용하여 뎁쓰 맵(depth map)의 외삽(extrapolation)을 업데이트할 수 있다. 본 발명의 또 어떤 실시예에 따르면, 이러한 업데이트 프로세스는 추출된 뎁쓰 맵과 추출된 구획 데이터를 결합시키고, (3) 출력 모델의 3차원 바디의 위치를 업데이트하는 것을 포함할 수 있다. According to some embodiments of the present invention, the system, as shown in step 4700, locates a three-dimensional body in accordance with the fitted image and a depth map using the Z-lens image acquisition assembly. You can update the extrapolation of the depth map. According to some embodiments of the invention, this update process may comprise combining the extracted depth map and the extracted partition data and (3) updating the position of the three-dimensional body of the output model.

본 발명의 어떤 실시예에 따르면, 3차원 상관관계 모듈(3700)은 3차원 바디의 위치를 업데이트할 수 있다. According to some embodiments of the invention, the three-dimensional correlation module 3700 may update the position of the three-dimensional body.

본 발명의 어떤 실시예에 따르면, 3차원 상관관계 모듈(3700)과 Z-렌즈 이미지 획득 어셈블리(3000)와 특히 상기 Z-렌즈 장치를 사용하여 획득되는 이미지로부 터 뎁쓰의 외삽에 대해서는, 본 출원인과 동일한 출원인으로 2006년 10월 31일에 출원된 PCT/IL2006/001254와, 본 출원인과 동일한 출원인으로 2005년 10월 31일에 출원된 US 60/731,274호의 미국 특허출원과 관련하여 더욱 잘 설명될 수 있다. According to some embodiments of the invention, for extrapolation of depth from an image obtained using the three-dimensional correlation module 3700 and the Z-lens image acquisition assembly 3000 and in particular the Z-lens device, Better explanation with respect to PCT / IL2006 / 001254, filed October 31, 2006 as the same applicant, and US 60 / 731,274, filed October 31, 2005 as the same applicant as the applicant. Can be.

도 5를 참조하여 보면, 본 발명의 어떤 실시예에 따른 예시적인 HMI 시스템이 도시되어 있으며, 이러한 HMI 시스템의 단계들을 기술하는 플로우 챠트가 도시된 도 6와 함께 더욱 잘 설명될 수 있다. Referring to FIG. 5, an exemplary HMI system is shown in accordance with certain embodiments of the present invention, and a flow chart describing the steps of such an HMI system can be better described with FIG. 6 shown.

본 발명의 어떤 실시예에 따르면, 도 5에는 3D 인간 기계 인터페이스(3D HMI라고 함)가 개시되고, 3D HMI는 (1) Z-렌즈 획득 어셈블리(5000), (2) 초기화 모듈(5100), (3) 이미지 구획 모듈(5200), (4) 구획 데이터 프로세싱 모듈(5300), (5) 스코어링 모듈(5400), (6) 프로젝션 모듈(5450), (7) 피팅 모듈(5500), (8) 스코어링 및 에러 검출 모듈(5550), (9) 회복 모듈(5600), (10) 3차원 상관관계 모듈(5700), (11) 3차원 골격 예측 모듈(5800), (12) 출력 모듈(5900) 및 광학 (13) 뎁쓰 추출 모듈(depth extraction module,5050)을 포함한다. According to some embodiments of the invention, FIG. 5 discloses a 3D human machine interface (called 3D HMI), wherein the 3D HMI comprises (1) Z-lens acquisition assembly 5000, (2) initialization module 5100, (3) image compartment module 5200, (4) compartment data processing module 5300, (5) scoring module 5400, (6) projection module 5450, (7) fitting module 5500, (8 ) Scoring and error detection module (5550), (9) recovery module (5600), (10) three-dimensional correlation module (5700), (11) three-dimensional skeletal prediction module (5800), (12) output module (5900) And an optical (13) depth extraction module (5050).

본 발명의 어떤 실시예에 따르면, Z-렌즈 획득 어셈블리는, 단계 6000에 보여지는 바와 같이, 이미지의 세트를 획득하고, 실질적으로 각각의 이미지는 시간상 다른 지점에 관련된다. 본 발명의 또 어떤 실시예에 따르면, 상기 이미지는 단일의 사용자 또는 다수의 사용자가 될 수 있다. According to some embodiments of the invention, the Z-lens acquisition assembly acquires a set of images, as shown in step 6000, and substantially each image is related to a different point in time. According to another embodiment of the invention, the image may be a single user or multiple users.

본 발명의 어떤 실시예에 따르면, 상기 Z-렌즈 획득 어셈블리는 도 1에 도면부호 1000으로 도시된 구성요소와는 다른 이미지 획득 어셈블리에 마운트될 수 있다. According to some embodiments of the invention, the Z-lens acquisition assembly may be mounted in an image acquisition assembly other than the component shown at 1000 in FIG. 1.

본 발명의 또 어떤 실시예에 따르면, 상기 Z-렌즈 획득 어셈블리(5000)는, 본 출원인과 동일한 출원인으로 2006년 10월 31일에 출원된 PCT/IL2006/001254와, 본 출원인과 동일한 출원인으로 2005년 10월 31일에 출원된 US 60/731,274호의 미국 특허출원과 관련하여 더욱 잘 설명될 수 있다. According to another embodiment of the present invention, the Z-lens acquisition assembly 5000 is PCT / IL2006 / 001254 filed on October 31, 2006 and is the same applicant as the applicant. This may be better explained in connection with the US patent application of US 60 / 731,274 filed October 31, 1989.

본 발명의 어떤 실시예에 따르면, 상기 시스템이 하나 또는 그 이상의 이미지를 획득한 후에, 상기 시스템은, 단계 6100에 보여지는 바와 같이, 상기 초기화 모듈(5100)에 의하여 수행되는 초기화 단계로 진입할 수 있다. 상기 초기화 모듈은 사용자의 (1) 칼라, (2) 조직 파라미터(organ's parameter), (3) 환경, 및 사용자에 관련되는 다른 파라미터를 검출하고 정의할 수 있다. According to some embodiments of the present invention, after the system acquires one or more images, the system may enter an initialization step performed by the initialization module 5100, as shown in step 6100. have. The initialization module can detect and define (1) color of the user, (2) organization's parameters, (3) environment, and other parameters related to the user.

본 발명의 어떤 실시예에 따르면, 상기 시스템은, 단계 6200에 보여지는 바와 같이, 구획 데이터를 추출할 수 있으며, 상기의 구획 데이터는 아래의 사항을 포함한다. According to some embodiments of the invention, the system may extract partition data, as shown in step 6200, wherein the partition data includes the following.

·칼라(color)Color

·움직임(movement)Movement

·에지 검출(edge detection)Edge detection

·텍스츄어(texture)Texture

본 발명의 또 어떤 실시예에 따르면, 상기 이미지 구획 모듈(5200)은 이미지로부터 상기 구획 데이터를 추출할 수 있다. According to another embodiment of the present invention, the image partition module 5200 may extract the partition data from an image.

본 발명의 어떤 실시예에 따르면, 상기 시스템은, 단계 6300에 보여지는 바와 같이, 상기 구획 데이터를 프로세스할 수 있다. 본 발명의 또 어떤 실시예에 따 르면, 상기 구획 데이터는 아래와 같은 방법에 의하여 프로세스 될 수 있다. According to some embodiments of the present invention, the system may process the partition data, as shown in step 6300. According to another embodiment of the present invention, the partition data may be processed by the following method.

·칼라 - 예를 들어 손바닥과 얼굴을 검출하기 위하여 피부 색을 사용하는 것처럼, 구성 및/또는 빛 변화를 검출하는데 알려진 칼라 파라미터를 사용.Color-using known color parameters to detect composition and / or light changes, for example using skin color to detect palms and faces.

·움직임 - 프레임에서 움직이는 구성을 검출Motion-detects moving configurations in the frame

·배경 제거Background removal

·에지 검출 - 이미지의 에지를 검출Edge detection-detects edges in images

·텍스츄어 - 구성을 검출하기 위하여 알려진 텍스츄어 파라미터를 사용Texture-uses known texture parameters to detect configuration

본 발명의 또 어떤 실시예에 따르면, 상기 구획 데이터 프로세싱 모듈(5300)은 상기 구획 데이터를 프로세스할 수 있다. According to another embodiment of the present invention, the partition data processing module 5300 may process the partition data.

본 발명의 어떤 실시예에 따르면, 상기 시스템은, 단계 6400에 보여지는 바와 같이, 상기 구획 데이터의 질을 평가할 수 있으며, 이러한 평가는 (1) 상기의 프로세스된 구획 데이터를 조사하고, (2) 상기의 프로세스된 구획 데이터의 질을 추정하고, 추정된 질에 따라 (3) 상기 구획 데이터의 부분들이 상기 HMI 시스템에 의하여 사용되기에 충분히 신뢰할 수 있는지를 결정하는 것에 의하여 수행된다. According to some embodiments of the present invention, the system may assess the quality of the partition data, as shown in step 6400, which assessment may include (1) examining the processed partition data and (2) By estimating the quality of the processed partition data, and determining, according to the estimated quality, that parts of the partition data are reliable enough for use by the HMI system.

본 발명의 또 어떤 실시예에 따르면, 상기 스코어링 모듈(5400)은 상기 구획 정보의 질을 평가할 수 있다. According to another embodiment of the present invention, the scoring module 5400 may evaluate the quality of the partition information.

본 발명의 또 어떤 실시예에 따르면, 상기 시스템은, 단계 6800에 보여지는 바와 같이, 3차원 골격의 위치를 예측할 수 있으며, 그 위치는 프로세스된 이미지와 가장 좋은 매치 또는 상관관계를 가질 것이다. 본 발명의 또 어떤 실시예에 따르면, 이러한 예측은, 예를 들어 상기 골격이 인간 형상인 경우에 골격의 머리는 어깨의 움직임 없이 360도 회전될 수 없는 것처럼, 상기 골격의 타입으로부터 유도되는 제한사항을 사용하여 좀 더 정확해질 수 있다. According to some embodiments of the present invention, the system can predict the location of the three-dimensional skeleton, as shown in step 6800, which location will have the best match or correlation with the processed image. According to some embodiments of the invention, this prediction is a limitation derived from the type of skeleton, such as when the skeleton is of a human shape such that the head of the skeleton cannot be rotated 360 degrees without shoulder movement. To be more accurate.

본 발명의 어떤 실시예에 따르면, 상기 예측 결과는 다이나믹 및 모션 프로세스 등을 사용할 수 있다. According to some embodiments of the present invention, the prediction result may use dynamic and motion processes and the like.

본 발명의 어떤 실시예에 따르면, 상기 3차원 골격 예측 모듈(5800)은 3차원 골격의 위치를 예측할 수 있다. According to some embodiments of the present invention, the 3D skeleton prediction module 5800 may predict the position of the 3D skeleton.

본 발명의 어떤 실시예에 따르면, 상기 시스템은, 단계 6050에 보여지는 바와 같이, Z-렌즈 획득 어셈블리를 사용하여 뎁쓰를 추출하는 것이 가능하고, Z-렌즈 획득 어셈블리를 사용한 뎁쓰의 추출은 (1) 본 출원인과 동일한 출원인으로 2006년 10월 31일에 출원된 PCT/IL2006/001254와, (2) 본 출원인과 동일한 출원인으로 2005년 10월 31일에 출원된 US 60/731,274호의 미국 특허출원에 기술된다. According to some embodiments of the invention, the system is capable of extracting the depth using the Z-lens acquisition assembly, as shown in step 6050, and extraction of the depth using the Z-lens acquisition assembly is (1). ) PCT / IL2006 / 001254, filed October 31, 2006 as the same applicant, and (2) US 60 / 731,274, filed October 31, 2005, as the same applicant as the applicant. Are described.

본 발명의 어떤 실시예에 따르면, 상기 뎁쓰 추출 모듈(5050)은 상기의 획득된 이미지로부터 뎁쓰를 추출할 수 있다. According to some embodiments of the present invention, the depth extraction module 5050 may extract the depth from the obtained image.

본 발명의 어떤 실시예에 따르면, 상기 시스템은, 단계 6450에 보여지는 바와 같이, 상기 이미지 상에 골격을 투영하는 것 역시 가능하다. 본 발명의 또 어떤 실시예에 따르면, 이러한 투영(프로젝션)은 2차원 평면에서도 적용가능하다. According to some embodiments of the invention, the system is also capable of projecting a skeleton on the image, as shown in step 6450. According to some embodiments of the invention, this projection is also applicable in a two-dimensional plane.

본 발명의 또 어떤 실시예에 따르면, 모듈(5050)이 사용된다면 상기 골격의 투영은 3차원 평면에서도 가능하다. According to some embodiments of the present invention, the projection of the skeleton is also possible in a three-dimensional plane if the module 5050 is used.

본 발명의 어떤 실시예에 따르면, 상기의 투영은 3차원 이미지 및/또는 점으로 자욱한 3차원 상에 이루어질 수 있다. According to some embodiments of the invention, the projection may be on a three-dimensional image, which is a three-dimensional image and / or a point.

본 발명의 어떤 실시예에 따르면, 상기 프로젝션 모듈(6450)은 상기 이미지 상에 상기 골격을 투영시킬 수 있다. According to some embodiments of the invention, the projection module 6250 may project the skeleton onto the image.

본 발명의 어떤 실시예에 따르면, 상기 시스템은, 단계 6500에 보여지는 바와 같이, 구획 데이터를 투영된 골격에 피트하는 것이 가능하다. 본 발명의 또 어떤 실시예에 따르면, 이러한 피팅 프로세스는 상기 구획 데이터의 일부들을 상기의 투영된 골격의 일부들에 결합시키는 것을 포함한다. According to some embodiments of the invention, the system is able to fit the partition data into the projected skeleton, as shown in step 6500. According to some embodiments of the present invention, this fitting process includes combining portions of the partition data to portions of the projected skeleton.

본 발명의 어떤 실시예에 따르면, 상기 구획 데이터를 피트하는 것은 상기의 추출된 구획 데이터의 부분들을 현재의 골격 파라미터에 결합시키는 것을 포함하고, 여기서 현재 골격 파라미터는 추출된 구획 데이터의 관련된 부분들을 제공할 수 있다.According to some embodiments of the invention, fitting the partition data comprises combining the portions of the extracted partition data to a current skeleton parameter, wherein the current skeleton parameter provides relevant portions of the extracted partition data. can do.

본 발명의 또 어떤 실시예에 따르면, 이러한 프로세스의 결과는 "피트된 골격"이다. According to another embodiment of the present invention, the result of this process is a "fitted backbone".

본 발명의 또 어떤 실시예에 따르면, 상기 피팅 모듈(5500)은 상기 구획 데이터를 상기의 투영된 골격에 결합시킬 수 있다. According to some embodiments of the invention, the fitting module 5500 may couple the partition data to the projected skeleton.

본 발명의 어떤 실시예에 따르면, 상기 시스템은, 단계 6550에 보여지는 바와 같이, 상기의 피트된 골격에 점수를 부여하고, 에러를 검출할 수 있다. 본 발명의 어떤 실시예에 따르면, 점수를 부여하고 에러를 검출하는 것은 (1) 상기의 피트된 골격을 조사하고, (2) 상기 골격의 피팅 질을 평가하고, (3) 상기 골격 예측 프로세스를 하는 동안 또는 구획 데이터를 결합시키는 동안에 에러가 발생하였는지 여부를 결정하는 것을 포함한다. According to some embodiments of the present invention, the system may score and detect errors in the fitted skeleton as shown in step 6550. According to some embodiments of the present invention, scoring and detecting errors include (1) examining the fitted skeleton, (2) assessing the fitting quality of the skeleton, and (3) performing the skeletal prediction process. Determining whether an error has occurred during or during joining the partition data.

본 발명의 어떤 실시예에 따르면, 상기 스코어링 및 에러 검출 모듈(5550)은 점수를 부여하고 에러를 검출할 수 있다. According to some embodiments of the invention, the scoring and error detection module 5550 may assign scores and detect errors.

본 발명의 어떤 실시예에 따르면, 단계 6550에서 에러가 검출되는 경우에, 상기 시스템은, 단계 6600에 보여지는 바와 같이, 회복 단계로 진입할 수 있다. 이러한 회복 프로세스는 멀티플 프로세싱 레이어의 프로세스가 될 수 있다. According to some embodiments of the invention, if an error is detected in step 6550, the system may enter a recovery phase, as shown in step 6600. This recovery process can be a process of multiple processing layers.

본 발명의 어떤 실시예에 따르면, 상기의 회복 단계는 상기 이미지를 재-구획하고, 상기 3D 골격 위치를 재-예측하고, 재-투영하며, 상기 골격을 재-피팅하는 수고를 다시 수행하는 것을 포함한다. 또한, 본 발명의 또 어떤 실시예에 따르면, 상기 이미지 정보에 오류가 있는 경우에, 상기 회복 모듈은 하나의 프레임 또는 그 이상을 스킵할 것을 결정할 수 있다. According to some embodiments of the invention, said restoring step comprises re-partitioning the image, re-predicting the 3D skeletal position, re-projecting, and re-fitting the skeleton again. Include. Further, according to another embodiment of the present invention, when there is an error in the image information, the recovery module may determine to skip one frame or more.

본 발명의 어떤 실시예에 따르면, 회복이 수행되는 동안 상기 시스템은 객체의 추적이 상기 프레임 내에 있지 않은 객체를 검출할 수 있다. 본 발명의 또 어떤 실시예에 따르면, 상기 시스템은 상기 객체가 상기 프레임으로 돌아올 때까지 하나 또는 그 이상의 프레임을 스킵할 수 있다. According to some embodiments of the invention, while recovery is performed, the system may detect an object whose tracking is not within the frame. According to another embodiment of the present invention, the system may skip one or more frames until the object returns to the frame.

본 발명의 또 어떤 실시예에 따르면, 상기의 회복 단계는 상기 시스템을 상기의 초기화 단계로 돌릴 수 있다. According to another embodiment of the present invention, the recovering step may return the system to the initializing step.

본 발명의 어떤 실시예에 따르면, 상기 회복 모듈(5600)은 상기의 회복 프로세스를 수행할 수 있다. According to some embodiments of the invention, the recovery module 5600 may perform the recovery process.

본 발명의 어떤 실시예에 따르면, 단계 6550 동안에 에러가 검출되지 않은 경우에, 상기 시스템은, 단계 6700에 보여지는 바와 같이, 상기 3차원 골격의 위치 를 상기의 피트된 골격의 위치로 업데이트할 수 있다. 본 발명의 또 어떤 실시예에 따르면, 상기의 업데이트 프로세스는 (1) 상기의 피트된 골격 상에 3D 골격을 투영하고, (2) 3차원 골격을 상기의 피트된 골격에 결합시키고, (3) 상기 Z-렌즈 어셈블리를 사용하여 뎁쓰를 추출하고, (4) 상기 3차원 골격을 뎁쓰 파라미터에 결합시키고, (5) 상기 3D 골격의 위치를 업데이트하는 포함할 수 있다. According to some embodiments of the present invention, if no error is detected during step 6550, the system may update the location of the three-dimensional skeleton to the location of the fitted skeleton, as shown in step 6700. have. According to another embodiment of the invention, the update process comprises (1) projecting a 3D skeleton onto the fitted skeleton, (2) combining the three-dimensional skeleton to the fitted skeleton, and (3) Extracting a depth using the Z-lens assembly, (4) combining the three-dimensional skeleton with a depth parameter, and (5) updating the position of the 3D skeleton.

본 발명의 어떤 실시예에 따르면, 상기 3차원 상관관계 모듈(5700)은 상기 3차원 골격의 위치를 업데이트할 수 있다. According to some embodiments of the invention, the three-dimensional correlation module 5700 may update the position of the three-dimensional skeleton.

본 발명의 어떤 실시예에 따르면, 상기 3차원 상관관계 모듈(5700)과 골격 예측 모듈(5800)은, 본 출원인과 동일한 출원인으로 2005년 7월 31일에 출원된 PCT/IL2005/000813호의 PCT출원에 기재되어 있는 알고리즘 및 프로세스의 일부 또는 전부를 사용할 수 있다. According to some embodiments of the invention, the three-dimensional correlation module 5700 and skeletal prediction module 5800 are the same as the applicant of the PCT application of PCT / IL2005 / 000813 filed on July 31, 2005. Some or all of the algorithms and processes described herein may be used.

본 발명의 또 어떤 실시예에 따르면, (1) 3차원 상관관계 모듈(5700)과, (2) Z-렌즈 이미지 획득 어셈블리(5000)와, 뎁쓰 추출 모듈(5050) 및 특히 상기 Z-렌즈 장치를 사용하여 획득되는 이미지로부터 뎁쓰의 외삽에 대해서는, 본 출원인과 동일한 출원인으로 2006년 10월 31일에 출원된 PCT/IL2006/001254와, 본 출원인과 동일한 출원인으로 2005년 10월 31일에 출원된 US 60/731,274호의 미국 특허출원과 관련하여 더욱 잘 설명될 수 있다. According to some embodiments of the invention, (1) a three-dimensional correlation module 5700, (2) a Z-lens image acquisition assembly 5000, a depth extraction module 5050, and in particular the Z-lens device For extrapolation of the depth from an image obtained using, PCT / IL2006 / 001254 filed on October 31, 2006 to the same applicant as the applicant, and filed October 31, 2005 to the same applicant as the applicant This may be better explained in connection with the US patent application of US 60 / 731,274.

본 발명의 어떤 실시예에 따르면, 상기에서 기술된 시스템은 외부 소스 뎁쓰 이미지 및/또는 3차원 이미지로부터 수신할 있다. 본 발명의 또 어떤 실시예에 따르면, 뎁쓰 이미지 및/또는 3차원 이미지가 수신되면, 상기 시스템은 관련되는 모 듈에서 그들의 파라미터를 추출할 수 있다. According to some embodiments of the invention, the system described above may receive from an external source depth image and / or a three-dimensional image. According to some embodiments of the present invention, when a depth image and / or a three-dimensional image is received, the system may extract their parameters from the module involved.

여기에서 표현된 프로세스들과 디스플레이들은 어떤 특별한 컴퓨터 또는 그 외의 장치에 근본적으로 관련되는 것은 아니다. 다양한 일반적인 목적의 시스템들이 명세서에 개시된 사항에 부합하는 프로그램으로 사용될 수 있거나, 바람직한 방법을 실행하기 위한 좀 더 특별화된 장치를 만드는 것도 용이할 것이다. 이러한 시스템들의 종류에 대한 바람직한 구조는 상세한 설명으로부터 알 수 있을 것이다. 그리고, 본 발명의 실시예들은 어느 특별한 프로그래밍 언어에 관하여 기술되는 것이 아니다. 여러 종류의 프로그래밍 언어들이 기재된 발명의 사상을 충족되도록 사용될 수 있다. 당업자라면 기술된 발명이 모든 종류의 와이어리스(wireless) 또는 와이어-라인(wire-line) 시스템에 사용될 수 있는 것을 당연히 알 것이다. The processes and displays presented herein are not fundamentally related to any particular computer or other device. Various general purpose systems may be used in the programs consistent with the disclosure herein, or it may be easy to make more specialized devices for carrying out the preferred methods. Preferred structures for these types of systems will appear from the detailed description. And embodiments of the present invention are not described with respect to any particular programming language. Various types of programming languages may be used to meet the spirit of the described invention. Those skilled in the art will naturally appreciate that the described invention can be used in any kind of wireless or wire-line system.

본 발명의 특정한 특징들이 도시되고 기술되었지만, 다양한 변형, 치환, 변경 및 동등물로의 대체등이 본 발명의 기술분야에서 일어날 수 있다. 따라서, 첨부된 청구항은 본 발명의 사상에 포함되는 이러한 변형 및 변경등을 포함하는 것이다. While certain features of the invention have been shown and described, various modifications, substitutions, changes, and substitutions with equivalents may occur in the art. Accordingly, the appended claims are intended to cover such modifications and variations as fall within the spirit of the invention.

Claims (20)

각각의 이미지가 시간상 다른 지점에 관련되는 사용자의 2차원 이미지의 세트를 획득하는 이미지 획득 어셈블리; 및An image acquisition assembly for acquiring a set of two-dimensional images of a user with each image relating to a different point in time; And 템플릿 바디의 3차원 데이터 모델을 상기 이미지 획득 어셈블리에 의해 획득된 하나 또는 그 이상의 이미지들로부터 외삽된(extrapolated) 데이터 세트에 관련시킴으로써, 하나 또는 그 이상의 추정된 사용자 바디를 유도하는 프로세싱 유닛;을 포함하는 3D 인간 기계 인터페이스.A processing unit that induces one or more estimated user bodies by associating a three-dimensional data model of a template body with an extrapolated data set from one or more images acquired by the image acquisition assembly. 3D human machine interface. 제 1 항에 있어서, The method of claim 1, 초기화 모듈, 이미지 구획 모듈, 구획 데이터 프로세싱 모듈, 스코어링(scoring) 모듈, 뎁쓰 추출(detph extraction) 모듈, 프로젝션 모듈, 피팅(fitting) 모듈, 스코어링 및 에러 검출 모듈, 회복 모듈, 3차원 골격 예측 모듈로 이루어진 그룹에서 선택되는 하나 또는 그 이상의 모듈과, 3차원 상관관계 모듈 및 출력 모듈을 더 포함하는 3D 인간 기계 인터페이스.Initialization module, image compartment module, compartment data processing module, scoring module, depth extraction module, projection module, fitting module, scoring and error detection module, recovery module, 3D skeletal prediction module 3D human machine interface further comprising one or more modules selected from the group consisting of: a three-dimensional correlation module and an output module. 제 2 항에 있어서, The method of claim 2, 상기 이미지 구획 모듈은 상기 이미지로부터 구획 데이터를 추출하는 3D 인간 기계 인터페이스.And the image partition module extracts partition data from the image. 제 3 항에 있어서, The method of claim 3, wherein 상기 구획 데이터는 칼라(Color), 움직임(movement), 사이즈(size), 에지 검출(Edge detection) 및 텍스츄어(texture)로부터 선택되는 파라미터들로 이루어진 3D 인간 기계 인터페이스.The partition data is a 3D human machine interface consisting of parameters selected from color, movement, size, edge detection and texture. 제 3 항에 있어서, The method of claim 3, wherein 상기 구획 데이터 프로세싱 모듈은 상기의 구획 데이터를 프로세스하는 3D 인간 기계 인터페이스.And the compartment data processing module processes the compartment data. 제 5 항에 있어서, The method of claim 5, 상기 스코어링 모듈은 상기 프로세스된 구획 데이터의 질을 평가하는 3D 인간 기계 인터페이스.The scoring module is a 3D human machine interface for evaluating the quality of the processed compartment data. 제 2 항에 있어서, The method of claim 2, 상기 3차원 골격 예측 모듈은 상기 3차원 골격의 위치를 예측하는 3D 인간 기계 인터페이스. The 3D skeletal prediction module predicts the position of the 3D skeleton. 제 2 항에 있어서, The method of claim 2, 상기 프로젝션 모듈은 상기의 획득된 이미지 상에 3차원 골격을 투영하는 3D 인간 기계 인터페이스. And the projection module projects a three-dimensional skeleton on the obtained image. 제 8 항에 있어서, The method of claim 8, 상기 3차원 골격의 투영은 2차원 평면에 이루어지는 3D 인간 기계 인터페이스. The 3D human machine interface of the three-dimensional skeleton is a projection on a two-dimensional plane. 제 2 항에 있어서, The method of claim 2, 상기 피팅 모듈은 추출된 구획 데이터의 부분들을 투영된 골격에 결합시키는 3D 인간 기계 인터페이스. The fitting module is a 3D human machine interface for coupling portions of the extracted partition data to the projected skeleton. 제 2 항에 있어서, The method of claim 2, 상기 3차원 상관관계 모듈은 3차원 골격의 위치를 업데이트하는 3D 인간 기계 인터페이스. And the three-dimensional correlation module updates the position of the three-dimensional skeleton. 제 1 항에 있어서, The method of claim 1, 상기 이미지 획득 어셈블리는 필름 카메라, 웹 카메라, 디지털 비디오 카메라, 아날로그 비디오 카메라 및 스테레오 카메라를 포함하는 그룹으로부터 선택되는 3D 인간 기계 인터페이스. And the image acquisition assembly is selected from the group comprising a film camera, a web camera, a digital video camera, an analog video camera and a stereo camera. 2차원 이미지들의 세트로부터 대등하게 되는 하나 또는 그 이상의 추정된 사용자 바디를 유도하는 프로세싱 유닛; 및A processing unit for deriving one or more estimated user bodies to be equivalent from the set of two-dimensional images; And 둘 또는 그 이상의 광학 경로들을 사용하여 하나 또는 그 이상의 2차원 이미지 데이터 세트를 획득하는 이미지 획득 어셈블리;를 포함하고,An image acquisition assembly for acquiring one or more sets of two-dimensional image data using two or more optical paths; 상기 광학 경로 각각은 렌즈, 미러 및 조리개 구조(diaphragm structure)를 포함하고, 각각의 광 경로는 공통의 투영면으로부터 2차원 광학 이미지 정보를 수집하는 3D 인간 기계 인터페이스.Each of the optical paths comprises a lens, a mirror and a diaphragm structure, each optical path collecting two-dimensional optical image information from a common projection surface. 제 13 항에 있어서, The method of claim 13, 초기화 모듈, 이미지 구획 모듈로 이루어진 그룹으로부터 선택되는 적어도 하나의 모듈과,At least one module selected from the group consisting of an initialization module and an image partition module, 구획 데이터 프로세싱 모듈, 피팅 모듈, 스코어링 및 에러 검출 모듈, 뎁쓰 추출 모듈, 회복 모듈, 3차원 상관관계 모듈 및 출력 모듈을 더 포함하는 3D 인간 기계 인터페이스. 3D human machine interface further comprising a compartment data processing module, a fitting module, a scoring and error detection module, a depth extraction module, a recovery module, a three-dimensional correlation module and an output module. 제 14 항에 있어서, The method of claim 14, 상기 이미지 구획 모듈은 상기 이미지로부터 구획 데이터를 추출하는 3D 인간 기계 인터페이스. And the image partition module extracts partition data from the image. 제 15 항에 있어서, The method of claim 15, 상기 구획 데이터는 칼라, 움직임, 사이즈, 에지 검출 및 텍스츄어로 이루어지는 그룹으로부터 선택되는 파라미터로 이루어지는 3D 인간 기계 인터페이스. And the partition data comprises a parameter selected from the group consisting of color, motion, size, edge detection and texture. 제 15 항에 있어서, The method of claim 15, 상기 구획 데이터 프로세싱 모듈은 상기 구획 데이터를 프로세스하는 3D 인간 기계 인터페이스. The compartment data processing module is configured to process the compartment data. 제 14 항에 있어서, The method of claim 14, 상기 피팅 모듈은 추출된 구획 데이터의 부분들을 획득되는 이미지에 결합시키는 3D 인간 기계 인터페이스. The fitting module couples portions of the extracted partition data to the obtained image. 제 14 항에 있어서, The method of claim 14, 상기 3차원 상관관계 모듈은 3차원 바디의 위치를 업데이트하는 3D 인간 기계 인터페이스. And the three-dimensional correlation module updates the position of the three-dimensional body. 제 13 항에 있어서, The method of claim 13, 상기 이미지 획득 어셈블리는 Z-렌즈(Zlens) 어셈블리인 3D 인간 기계 인터페이스. And the image acquisition assembly is a Z-lens assembly.
KR1020097023103A 2007-04-15 2007-04-15 An apparatus system and method for human-machine-interface KR101379074B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/IL2007/000475 WO2008126069A2 (en) 2007-04-15 2007-04-15 An apparatus system and method for human-machine-interface

Publications (2)

Publication Number Publication Date
KR20100016240A true KR20100016240A (en) 2010-02-12
KR101379074B1 KR101379074B1 (en) 2014-03-28

Family

ID=39864447

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020097023103A KR101379074B1 (en) 2007-04-15 2007-04-15 An apparatus system and method for human-machine-interface

Country Status (6)

Country Link
EP (1) EP2147393A4 (en)
JP (1) JP5147933B2 (en)
KR (1) KR101379074B1 (en)
CA (1) CA2684020C (en)
IL (1) IL201514A (en)
WO (1) WO2008126069A2 (en)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101238608B1 (en) 2004-07-30 2013-02-28 익스트림 리얼리티 엘티디. A system and method for 3D space-dimension based image processing
US8928654B2 (en) 2004-07-30 2015-01-06 Extreme Reality Ltd. Methods, systems, devices and associated processing logic for generating stereoscopic images and video
US8872899B2 (en) * 2004-07-30 2014-10-28 Extreme Reality Ltd. Method circuit and system for human to machine interfacing by hand gestures
US9046962B2 (en) 2005-10-31 2015-06-02 Extreme Reality Ltd. Methods, systems, apparatuses, circuits and associated computer executable code for detecting motion, position and/or orientation of objects within a defined spatial region
US20070285554A1 (en) 2005-10-31 2007-12-13 Dor Givon Apparatus method and system for imaging
US8878779B2 (en) 2009-09-21 2014-11-04 Extreme Reality Ltd. Methods circuits device systems and associated computer executable code for facilitating interfacing with a computing platform display screen
CA2774867A1 (en) 2009-09-21 2011-03-24 Extreme Reality Ltd. Methods circuits apparatus and systems for human machine interfacing with an electronic appliance
US9857868B2 (en) 2011-03-19 2018-01-02 The Board Of Trustees Of The Leland Stanford Junior University Method and system for ergonomic touch-free interface
US8840466B2 (en) 2011-04-25 2014-09-23 Aquifi, Inc. Method and system to create three-dimensional mapping in a two-dimensional game
US8854433B1 (en) 2012-02-03 2014-10-07 Aquifi, Inc. Method and system enabling natural user interface gestures with an electronic system
US9098739B2 (en) 2012-06-25 2015-08-04 Aquifi, Inc. Systems and methods for tracking human hands using parts based template matching
US9111135B2 (en) 2012-06-25 2015-08-18 Aquifi, Inc. Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera
US8836768B1 (en) 2012-09-04 2014-09-16 Aquifi, Inc. Method and system enabling natural user interface gestures with user wearable glasses
US9092665B2 (en) 2013-01-30 2015-07-28 Aquifi, Inc Systems and methods for initializing motion tracking of human hands
US9129155B2 (en) 2013-01-30 2015-09-08 Aquifi, Inc. Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map
US9298266B2 (en) 2013-04-02 2016-03-29 Aquifi, Inc. Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
US9798388B1 (en) 2013-07-31 2017-10-24 Aquifi, Inc. Vibrotactile system to augment 3D input systems
US9507417B2 (en) 2014-01-07 2016-11-29 Aquifi, Inc. Systems and methods for implementing head tracking based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
US9619105B1 (en) 2014-01-30 2017-04-11 Aquifi, Inc. Systems and methods for gesture based interaction with viewpoint dependent user interfaces
CN108144292A (en) * 2018-01-30 2018-06-12 河南三阳光电有限公司 Bore hole 3D interactive game making apparatus

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3481430B2 (en) * 1997-09-11 2003-12-22 富士通株式会社 Mobile tracking device
JP3800905B2 (en) * 1999-07-27 2006-07-26 松下電工株式会社 Image feature tracking processing method, image feature tracking processing device, and three-dimensional data creation method
JP2001236505A (en) * 2000-02-22 2001-08-31 Atsushi Kuroda Method, device and system for estimating coordinate
JP2002259474A (en) * 2001-03-05 2002-09-13 Oojisu Soken:Kk Method and device for generating human body model, computer program and recording medium
US6833843B2 (en) * 2001-12-03 2004-12-21 Tempest Microsystems Panoramic imaging and display system with canonical magnifier
JP2003256850A (en) * 2001-12-27 2003-09-12 Sanyo Electric Co Ltd Movement recognizing device and image processor and its program
US9177387B2 (en) * 2003-02-11 2015-11-03 Sony Computer Entertainment Inc. Method and apparatus for real time motion capture
JPWO2004094943A1 (en) * 2003-04-22 2006-07-13 博 有澤 Motion capture method, motion capture device, and motion capture marker
JP4481663B2 (en) * 2004-01-15 2010-06-16 キヤノン株式会社 Motion recognition device, motion recognition method, device control device, and computer program
US7308112B2 (en) * 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
KR101238608B1 (en) * 2004-07-30 2013-02-28 익스트림 리얼리티 엘티디. A system and method for 3D space-dimension based image processing
JP4686595B2 (en) * 2005-03-17 2011-05-25 本田技研工業株式会社 Pose estimation based on critical point analysis

Also Published As

Publication number Publication date
IL201514A0 (en) 2010-05-31
CA2684020A1 (en) 2008-10-23
JP5147933B2 (en) 2013-02-20
EP2147393A2 (en) 2010-01-27
WO2008126069A3 (en) 2009-04-23
KR101379074B1 (en) 2014-03-28
JP2010524113A (en) 2010-07-15
WO2008126069A2 (en) 2008-10-23
IL201514A (en) 2015-02-26
CA2684020C (en) 2016-08-09
EP2147393A4 (en) 2012-12-05

Similar Documents

Publication Publication Date Title
KR101379074B1 (en) An apparatus system and method for human-machine-interface
US8432390B2 (en) Apparatus system and method for human-machine interface
US8548258B2 (en) Method system and associated modules and software components for providing image sensor based human machine interfacing
JP7114774B2 (en) Face fusion model training method, apparatus and electronic equipment
JP5599400B2 (en) Method system and software for providing an image sensor based human machine interface
US20220319139A1 (en) Multi-endpoint mixed-reality meetings
Lee et al. A wizard of oz study for an ar multimodal interface
Medeiros et al. A tablet-based 3d interaction tool for virtual engineering environments
US20170039037A1 (en) Live mobile application visual editor demo
US8681100B2 (en) Apparatus system and method for human-machine-interface
CN106502401A (en) A kind of display control method and device
CN113903210A (en) Virtual reality simulation driving method, device, equipment and storage medium
McNamara et al. Investigating low-cost virtual reality technologies in the context of an immersive maintenance training application
DE102016204692A1 (en) Control of multiple selection on touch-sensitive surfaces
JP5620449B2 (en) Man-machine interface device system and method
CN108564660A (en) The exchange method and system of two-dimensional element and three-dimensional element in reality environment
CN107615229B (en) User interface device and screen display method of user interface device
KR102500237B1 (en) Ar/vr skeletal training method, apparatus and system using model
Albakri et al. 3D Keyframe Motion Extraction from Zapin Traditional Dance Videos
Lee et al. iSphere: a free-hand 3D modeling interface
CN112488284A (en) Model training method, character image completion method and device and electronic equipment
CN116501201A (en) Software development split-screen processing method and system
CN111385489A (en) Method, device and equipment for manufacturing short video cover and storage medium
CN116529766A (en) Automatic mixing of human facial expressions and whole-body gestures for dynamic digital mannequin creation using integrated photo-video volume capture system and mesh tracking
Bachvarov et al. Virtual reality based CAD-model exploration method for the design engineering

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee