JP2013047961A - Human/machine interface device system and method - Google Patents

Human/machine interface device system and method Download PDF

Info

Publication number
JP2013047961A
JP2013047961A JP2012218525A JP2012218525A JP2013047961A JP 2013047961 A JP2013047961 A JP 2013047961A JP 2012218525 A JP2012218525 A JP 2012218525A JP 2012218525 A JP2012218525 A JP 2012218525A JP 2013047961 A JP2013047961 A JP 2013047961A
Authority
JP
Japan
Prior art keywords
module
present
skeleton
image
further embodiment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012218525A
Other languages
Japanese (ja)
Other versions
JP5620449B2 (en
Inventor
Givon Dor
ギヴォン,ドール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Extreme Reality Ltd
Original Assignee
Extreme Reality Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Extreme Reality Ltd filed Critical Extreme Reality Ltd
Priority to JP2012218525A priority Critical patent/JP5620449B2/en
Publication of JP2013047961A publication Critical patent/JP2013047961A/en
Application granted granted Critical
Publication of JP5620449B2 publication Critical patent/JP5620449B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide the improved system and method of a human/machine interface in the field of a user interface.SOLUTION: There is disclosed a three-dimensional human/machine interface (3D HMI) in which the 3D HMI includes: (1) image acquisition assembly; (2) start module; (3) image division module; (4) division data processing module; (5) scoring module; (6) projection module; (7) compatible module; (8) scoring and error detection module; (9) recovery module; (10) three-dimensional correlation module; (11) three-dimensional skeleton prediction module; (12) output module; and (13) depth extraction module.

Description

本出願は、2004年7月30日出願の米国暫定特許出願第60/592,136号、2005年7月31日出願のPCT/IL2005/000813号、2005年10月31日出願の米国暫定特許出願第60/731,274号、2006年3月27日出願の米国特許出願第11/227,578号、及び2006年10月31日出願のPCT/IL2006/001254号の一部継続出願である。各出願は全体に参照されて組み込まれている。   This application includes US Provisional Patent Application No. 60 / 592,136 filed July 30, 2004, PCT / IL2005 / 000813 filed July 31, 2005, and US Provisional Patent Application filed October 31, 2005. No. 60 / 731,274, U.S. Patent Application No. 11 / 227,578, filed March 27, 2006, and PCT / IL2006 / 001254, filed Oct. 31, 2006. . Each application is incorporated by reference in its entirety.

本発明は、一般的にユーザインターフェースに関するものであり、特に、3D人−機械インターフェース方法とシステムに関する。   The present invention relates generally to user interfaces, and more particularly to 3D human-machine interface methods and systems.

ソフトウエアの歴史における最大パターンの一つは、計算集約型(computation−intensive)デザインから提示集約型(presentation−intensive)デザインへのシフトである。機械はどんどんパワフルになってきているため、発明者はプレゼンテーションにこのパワーの一部を着実に増やすことに労力を費やしていた。この進歩の歴史は、便宜上3つの時代に分けることができる。すなわち、バッチ(1945−1968)、コマンド−ライン(1969−1983)、そしてグラフィカル(1984以降)である。もちろん、このストーリィはデジタルコンピュータの発明によって始まる。後者の二つの時代の開始日は、活気のある新インターフェース技術がラボラトリから脱け出して、インターフェースに関するユーザの期待を真剣に変え始めた数年である。これらの技術は相互作用的タイムシェアリング技術とグラフィックユーザインターフェース技術であった。   One of the biggest patterns in software history is the shift from computation-intensive design to presentation-intense design. As machines have become more and more powerful, the inventor has been working hard to steadily increase some of this power in presentations. The history of this progress can be divided into three eras for convenience. Batch (1945-1968), command-line (1969-1983), and graphical (1984 and later). Of course, this story begins with the invention of the digital computer. The start dates of the latter two eras are the years when vibrant new interface technologies have moved out of the laboratory and have begun to seriously change user expectations regarding interfaces. These technologies were interactive time-sharing technology and graphic user interface technology.

バッチの時代は、計算能力が非常に低く、高価であった。この時代の最も大型のコンピュータがコマンドする、一秒あたりのロジックサイクルは今日の普通のトースターあるいはマイクロウエーブオーブンより少なく、今日の自動車、デジタル時計、携帯電話よりかなり少ないものであった。従って、ユーザインターフェースは未発達であった。逆に、むしろユーザがコンピュータに適用しなくてはならず、ユーザインターフェースは経費がかかると考えられており、ソフトウエアは可能な限り少ない経費でプロセッサを最大利用するように設計されていた。   In the era of batches, computing power was very low and expensive. The largest computer of this era commanded fewer logic cycles per second than today's normal toaster or microwave oven, and much less than today's cars, digital watches and cell phones. Therefore, the user interface has not been developed. Conversely, the user had to apply to the computer, the user interface was considered expensive, and the software was designed to maximize the processor at the lowest possible cost.

バッチマシーン用のユーザインターフェースの入力側は主にパンチカードか、あるいは紙テープのような同等の媒体であった。出力側はこれらの媒体にプリンタをつなぐラインを足していた。システムのオペレータコンソールの制限付例外によって、人はバッチマシーンとリアルタイムで相互作用していなかった。   The input side of the user interface for batch machines was mainly punch cards or equivalent media such as paper tape. The output side added a line connecting the printer to these media. With limited exceptions in the system operator console, people were not interacting with the batch machine in real time.

バッチマシーンにジョブを提供することには、まず、プログラムとデータセットを記述したパンチカードのデッキを準備することが含まれていた。プログラムカードのパンチングは、コンピュータ自体では行われず、非常にかさばり、許しがたい、機械的故障が多い特化したタイプライターのような機械で行われていた。ソフトウエアインターフェースも、同様に、可能な限り最小のコンパイラと翻訳者によって、語法を解析するべき構文の意味が非常に制限されているという点で、許しがたいものであった。   Providing jobs to the batch machine involved first preparing a punch card deck describing the program and data set. The punching of program cards was not done by the computer itself, but by a machine like a specialized typewriter that was very bulky, unacceptable, and had many mechanical failures. The software interface was similarly unacceptable in that the meaning of the syntax to parse the wording was very limited by the smallest possible compiler and translator.

カードをパンチすると、このカードをジョブキューに入れて、待つ。結局は、オペレータは、デッキをコンピュータに押し込んで、おそらく、別のデータセットまたはヘルパーソフトウエアを供給する磁気テープを装着する。このジョブは、最終結果あるいは(非常にしばしば)エラーログを付帯する中止通知を含むプリントアウトを行う。うまく稼動すると磁気テープに結果を書き込むこともでき、あるいは、後の計算に用いるデータカードを何枚か作ることができた。   When you punch a card, put it in the job queue and wait. Eventually, the operator pushes the deck into the computer and probably wears a magnetic tape that supplies another data set or helper software. This job prints out a final result or a (not very often) abort notice accompanied by an error log. If it worked well, it could write the results to magnetic tape, or it could make several data cards for later calculations.

一つのジョブにかかる所要時間は、しばしば数日にも及んだ。非常に運がよければ数時間ですむこともあったが、リアルタイムでの応答は前代未聞のことであった。しかし、カードキューよりひどいことがあった。いくつかのコンピュータでは、コンソールスイッチを用いてバイナリコードのプログラムをトグリングするというよりつまらない、エラーを発生しがちなプロセスが必要であった。   The time required for one job was often several days. If you were very lucky, it could take hours, but the real-time response was unheard of. But there was something worse than a card queue. Some computers required a process that was error-prone and more error-prone than using a console switch to toggle a binary code program.

初期のバッチシステムは、コンピュータ全体に現在も稼動しているジョブを与えた。プログラムデッキとテープは、I/Oデバイスと会話するために現在我々がオペレーティングシステムコードと考えているものを持っていなくてはならず、その他のメンテナンスを必要とするものはなんでも行っていた。バッチ時代の中ごろである1957年以降は、いわゆる「ロード&実行」システムを使って様々なグループが実験を開始した。これらのシステムは、コンピュータ内に常にあるモニタープログラムを使用していた。プログラムはサービスとしてモニタをコールすることができた。モニタのもう一つの機能は、提供されたジョブについてより良好なエラーチェックを行い、より早くより賢明にエラーをキャッチして、ユーザにより使いやすいフィードバックを発生することであった。このように、モニタは、オペレーティングシステムと、明確に設計されたユーザインターフェースの両方に向けての第1ステップを代表するものであった。   Early batch systems gave the entire computer a job that was still running. The program deck and tape had to have what we now consider operating system code to talk to I / O devices, and did whatever else needed maintenance. Since 1957, the middle of the batch era, various groups started experimenting with the so-called “load and run” system. These systems always used a monitor program that was in the computer. The program was able to call the monitor as a service. Another function of the monitor was to perform better error checking on the provided job, catch errors faster and sensible, and generate user-friendly feedback. Thus, the monitor represented the first step towards both the operating system and a well-designed user interface.

コマンドラインインターフェース(CLIs)は、システムコンソールに接続されたバッチモニタから発達した。その相互作用モデルは、一連の応答を要求するトランスアクションであり、要求は、特定の語彙の中のテキストコマンドとして表わされていた。待ち時間はバッチシステムの待ち時間よりはるかに大きく、日または時間から秒へと下がった。従って、コマンドラインシステムによって、ユーザは、リアルタイムであるいはほぼリアルタイムで、前の結果に関するフィードバックに応答して、トランスアクション後のステージに対する考えを変えることができた。ソフトウエアは予備的なものであり、以前では不可能であった方法で相互作用した。しかしながら、これらのインターフェースはユーザに比較的重いニーモニック負荷を課し、マスターするのに一連の努力と学習時間を必要とした。   Command line interfaces (CLIs) developed from a batch monitor connected to the system console. The interaction model is a transaction that requires a series of responses, and the request was expressed as a text command in a particular vocabulary. Latency was much larger than batch system latency, dropping from days or hours to seconds. Thus, the command line system allowed the user to change their mind about the post-transaction stage in response to feedback on previous results in real time or near real time. The software was preliminary and interacted in ways that were not possible before. However, these interfaces impose a relatively heavy mnemonic load on the user and require a series of effort and learning time to master.

コマンドラインインターフェースは、タイムシェアリングコンピュータの台頭に非常に深く関係していた。タイムシェアリングデータの概念は1950年代に戻り、最も有力な初期の実験は、1965年以降のMULTICSオペレーティングシステムであり、今日のコマンドラインインターフェースに最も影響のあったものは、1969年以降のユニックス自体のオペレーティングシステムであり、これはその後生じたほとんどのシステムに影響を与えた。   The command line interface was very closely related to the rise of time-sharing computers. The concept of time-sharing data reverted back to the 1950s, and the most promising early experiment was the MULTICS operating system since 1965, which most affected today's command line interface was Unix itself after 1969 This has affected most systems that have since occurred.

初期のコマンドラインシステムは、テレタイプとコンピュータを組み合わせたものであり、人と人の間のワイヤを通じた情報転送の仲介に功を奏した成熟技術に適合したものであった。テレタイプはもともと、自動電信送受信用デバイスとして開発された。テレタイプの歴史は1902年にさかのぼり、1920年にはすでにニュースルームなどに定着していた。テレタイプを再利用するに当たっては、経済的事項を検討すべきであったが、心理学と驚き最小の法則も同様である。テレタイプは、多くのエンジニアやユーザに親しまれているシステムとのインターフェースポイントを提供した。   Early command line systems were a combination of teletypes and computers, and adapted to mature technology that was successful in mediating information transfer between people. Teletype was originally developed as a device for automatic telegraphic transmission and reception. The history of teletypes dates back to 1902, and in 1920 it was already established in newsrooms. In reusing teletypes, economic matters should have been considered, but so is psychology and the least law of surprise. Teletype provided an interface point with systems familiar to many engineers and users.

1970年半ばにビデオディスプレイターミナル(VDTs)が広く採用されたことで、コマンドラインシステムは第2期に入った。これらは、プリンタヘッドやキャリッジが移動するより速く、キャラクタをスクリーンの点状ドットに投影することができたため、待ち時間が更に短くなった。VDTsはコスト状況からインクや紙といった消耗品を削減することによって、双方向プログラミングに対する保守的な抵抗を抑え、1950年後半及び60年代の最初のTV世代に対して、1940年代のコンピュータパイオニアであったテレタイプより、より象徴的で心地の良いものであった。   With the wide adoption of video display terminals (VDTs) in the mid 1970s, the command line system entered the second phase. Since the characters could be projected onto dot dots on the screen faster than the printer head or carriage moved, the waiting time was further shortened. VDTs reduced conservative resistance to interactive programming by reducing consumables such as ink and paper due to cost considerations, and was a computer pioneer in the 1940s versus the first TV generation in the late 1950s and 60s. It was more symbolic and comfortable than the teletype.

アクセス可能なスクリーンの存在と同様に重要なことだが、ソフトウエア設計者が、迅速かつ可逆的に変形できるテキストの2次元ディスプレイが、テキストではなくビジュアルに記載できるインターフェースを展開させるのにコストがかからないようにした。この種のパイオニアであるアプリケーションは、コンピュータゲームとテキストエディタである。rogue(6)やvi(1)などの初期の例のいくつかに近い古い型のものは、いまだにユニックス様式の活電部である。   As important as the presence of accessible screens, software designers are not costly to develop a 2D display of text that can be quickly and reversibly transformed into a visual interface instead of text. I did it. Applications that are pioneers of this kind are computer games and text editors. Older versions close to some of the early examples such as logue (6) and vi (1) are still unix style live parts.

スクリーンビデオディスプレイは、まったく新規ではなく、1961年のPDP−1と同じように早期に、ミニコンピュータに登場していた。しかし、シリアルケーブルを介して取り付けたVDTsに移行するまでは、ことのほか高価なコンピュータがアドレス可能なディスプレイを一つだけそのコンソールにサポートすることができた。このような条件下では、ビジュアルUIの様式を開発することは困難であった。このようなインターフェースは、全てのコンピュータが少なくとも一時的に単一ユーザ専用に動くことができるというめったにない状況においてのみ生じる偶発的な出来事であった。   Screen video displays are not entirely new, and have appeared in minicomputers as early as the 1961 PDP-1. However, until the transition to VDTs attached via a serial cable, the console could support only one display that could be addressed by an expensive computer. Under these conditions, it has been difficult to develop a visual UI style. Such an interface was an accidental event that occurred only in rare circumstances where all computers could at least temporarily run exclusively for a single user.

1962年以来我々が現在グラフィカルユーザインターフェースと呼んでいるものによる散発的な実験と、パイオニアであるPDP−1のSPACEWARゲームがあった。このマシーンのディスプレイは、単なるキャラクタターミナルではなく、ベクトルグラフィックスをサポートするために作られた変形オシロスコープであった。SPACEWARインターフェースは、主にトグルスイッチを使用するものだったが、初期の原型トラックボールを特徴付けるものでもあり、プレーヤ自身が特注していた。10年後の1970年代初期には、これらの実験がビデオゲーム産業を生み出し、これは実際にSPACEWARのアーケードバージョンを作成する試みと共に始まった。   Since 1962 there have been sporadic experiments with what we now call a graphical user interface and the pioneer PDP-1 SPACEWAR game. The machine display was not just a character terminal, but a modified oscilloscope designed to support vector graphics. The SPACEWAR interface, which mainly uses a toggle switch, also characterizes the early prototype trackball and was custom made by the player himself. Ten years later, in the early 1970s, these experiments spawned the video game industry, which began with an attempt to actually create an arcade version of SPACEWAR.

PDP−1コンソールディスプレイは、20年早い第2次世界大戦のレーダー表示管から始まったものであり、マサチューセッツ工科大学(MIT)のリンカーン研究所におけるミニコンピュータの何人かのキーパイオニアが、かつてのレーダー技術者であったことを反映している。同じ1962年に大陸各地で、別のかつてのレーダー技術者が、Stanford Research Instituteで別の先駆者となり始めていた。彼の名前は、Doug Engelbartである。彼は、これらの非常に初期のグラフィカルディスプレイによる個人的な経験と、1945年に現在ハイパーテキストとよんでいるビジョンを与えたVannevar BushのゼミナールエッセイであるAs We May Thinkの両方から着想を得た。   The PDP-1 console display originated from the WWII radar display tube early 20 years, and several key pioneers of minicomputers at the Lincoln Laboratory at the Massachusetts Institute of Technology (MIT) Reflects that he was an engineer. In the same 1962, another former radar engineer began to become another pioneer in the Stanford Research Institute across the continent. His name is Doug Engelbart. He was inspired by both his personal experience with these very early graphical displays and As We May Think, Vannevar Bush's seminary essay which gave him a vision now called hypertext in 1945.

1968年12月に、EngelbartとSRIの彼のチームは、最初のハイパーテキストシステムである、NLS/Augumentについて、90分間の公開デモンストレーションを行った。このデモンストレーションは、スリーボタンマウス(Engelbartの発明)と、マルチウインドインターフェースのグラフィカルディスプレイと、ハイパーリンクと、スクリーン上でのビデオコンファレンスの初公開を含むものであった。このデモは、1991年のWorld Wide Webの発明まで、および、この発明を含めて、4半世紀の間コンピュータサイエンス界に鳴り響いいたセンセーションであった。   In December 1968, Engelbart and his team at SRI gave a 90-minute public demonstration of NLS / August, the first hypertext system. The demonstration included a three-button mouse (Engelbart's invention), a multi-window interface graphical display, hyperlinks, and the first video conference on screen. This demonstration was a sensation that resonated in the computer science world for a quarter of a century up to and including the invention of World Wide Web in 1991.

このように、1960年初期には、グラフィカルプレゼンテーションが、ユーザを引き付けたことはすでによく理解されていた。マウスと同等のポインティングデバイスがすでに発明されており、1960年代後半の多くの大型汎用コンピュータは、PDP−1に匹敵するディスプレイ容量を有していた。著者の一人は、2004年現在購入するとすれば4千5百万ドル近くかかるであろうUnivac1108のコンソールで、1968年の非常に初期の別のビデオゲームをプレイすることについて鮮やかな記憶を有している。しかし、4千5百万ドルでは、対話形式画像の実際のカスタマはほんの数人でしかなかった。NLS/Augmentシステムのカスタムハードウエアはそれほど高価ではなかったが、それでも一般的な使用には手が出せないほど高かった。1万ドルであるPDP−1ですらも、図形処理プログラミングの様式を設立するには高すぎるマシーンであった。   Thus, in the early 1960s, it was already well understood that graphical presentations attracted users. A pointing device equivalent to a mouse has already been invented, and many large general-purpose computers in the late 1960s had a display capacity comparable to PDP-1. One of the authors has a vivid memory about playing another video game very early in 1968 on the Univac 1108 console that would cost nearly $ 45 million if purchased as of 2004 ing. But at $ 45 million, there were only a few actual customers for interactive images. The custom hardware for the NLS / Augment system was not so expensive, but it was still too expensive for general use. Even the $ 10,000 PDP-1 was a machine that was too expensive to establish a graphics processing programming style.

ビデオゲームはコンピュータより早く巨大マーケットデバイスとなった。なぜなら、ゲームは非常に安価で簡単なプロセッサで、ハードワイヤに組み込まれたプログラムを稼動するためである。しかし、汎用目的のコンピュータでは、オシロスコープディスプレイが進化の終端に来た。コンピュータとの通常のインタラクションに、グラフィカルな、ビジュアルインターフェースを使用する概念は、数年を待たなくては成らず、実際のところ1970年後半のシリアルラインキャラクターVDTの最新式グラフィックス可能なバージョンによって到来した。   Video games have become huge market devices faster than computers. This is because the game is a very inexpensive and simple processor and runs a program embedded in the hard wire. However, on general purpose computers, oscilloscope displays have come to an end. The concept of using a graphical, visual interface for normal interaction with a computer has to wait a few years and in fact comes with the latest graphics capable version of the serial line character VDT of late 1970 did.

1970年代の最も初期のPARCシステム以来、GUIsの設計は、AltoがさきがけとなったWIMP(Windows,icons,Mice,Pointer)モデルと呼ばれるようになったものによってほぼ完全に支配された。次の数十年にわたってコンピューティングとディスプレイハードウエアに大きな変化が生じたことを考えると、WIMPを超えて考えることは驚くほど困難である。   Since the earliest PARC systems of the 1970s, the design of GUIs was almost completely dominated by what came to be called the WIMP (Windows, icons, Mice, Pointer) model, which Alto led. Given the significant changes in computing and display hardware over the next decades, it is surprisingly difficult to think beyond WIMP.

いくつかの試みがなされている。おそらく、最も際立った試みは、VR(バーチャルリアリティ)インターフェースである。このインターフェースではユーザは没入グラフィカル3−D環境を移動し、その中でジェスチュアする。VRは、1980年半ばから大きなリサーチコミュニティを引き付けた。これらをサポートする計算能力はもはや高価なものではないが、物理的なディスプレイデバイスは、VRに2004年における一般的な使用を超えた法外な値を付けている。より基本的な問題は、フライトシュミレータの設計者にはおなじみであるが、VRが人間固有の感覚システムを混乱させる方法であることである。むしろ普通の速度でのVRの動きが、脳が動きの視覚的シミュレーションを体の現実の世界の動きについての内示の報告と一致させようとするため、めまいや吐き気を引きおこすことがある。   Several attempts have been made. Perhaps the most prominent attempt is the VR (Virtual Reality) interface. With this interface, the user navigates through an immersive graphical 3-D environment and gestures within it. VR has attracted a large research community since mid-1980s. The computational power to support these is no longer expensive, but physical display devices have priced VR beyond the common use in 2004. A more fundamental problem, familiar to flight simulator designers, is that VR is a way to disrupt human-specific sensory systems. Rather, VR movement at normal speed may cause dizziness and nausea as the brain attempts to match the visual simulation of movement with the informed report of the body's real world movement.

Jef RaskinのTHE(The Humane Environment)プロジェクトは、GUIsのズームワールドモデルを調査したものであり、3Dに行くことなく空間化することを述べている。THIでは、スクリーンが2Dバーチャルワールドのウインドになり、そこでデータとプログラムが空間的位置によって組織化される。このワールドのオブジェクトは、基準面の上の高さに応じて細かな数種のレベルで表わすことができ、最もベーシックな選択動作は、ズームインとそこへの上陸である。   JEF Raskin's THE (The Human Environment) project investigates the GUIs zoom world model and states that it will be spatialized without going to 3D. In THI, the screen becomes the window of a 2D virtual world where data and programs are organized by spatial location. The objects in this world can be represented in several different levels depending on the height above the reference plane, and the most basic selection action is zooming in and landing there.

エール大学のLifestreamsプロジェクトは、実際、GUIを脱空間化させるといった、完全に反対の方向に進んでいる。ユーザのドキュメントは、修正日によって組織化されたある種のワールドラインあるいは一時的なストリームとして表わされ、様々な方法でフィルタにかけることができる。   The Yale University Lifestreams project is actually moving in the opposite direction, de-spatching the GUI. The user's document is represented as a kind of world line or temporary stream organized by modification date and can be filtered in various ways.

これらの3つのアプローチはすべて、ものに名前を付けることや、参照の主な形式として名称を用いることを回避するようにしたコンテキストを支持して、従来のファイルシステムを切り捨てるものである。このことは、最も長続きしており有効な特徴の一つであると思われるユニックスのアーキテクチュアのファイルシステムと階層名前空間に、これらのアプローチを合致させるのを困難にしている。それにもかかわらず、これらの初期の実験の一つは、いまだに、NLS/AugmentのEngelbartの1968年のデモと同じゼミナールであることがわかる。   All three of these approaches truncate traditional file systems in favor of a context that avoids naming things and using names as the primary form of reference. This makes it difficult to match these approaches to the Unix architecture file system and hierarchical namespace, which seems to be one of the longest-lasting and useful features. Nevertheless, it can be seen that one of these early experiments is still the same seminar as NLS / Augment's Engelbart 1968 demo.

ユーザインターフェースの分野では、人−機械インターフェースの改善されたシステムと方法が求められている。   There is a need in the user interface field for improved systems and methods for man-machine interfaces.

本発明の実施例によれば、3D人機械インターフェース(「3D HMI」)が提供されており、この3DHMIは、(1)画像取得アッセンブリ、(2)起動モジュール、(3)画像分割モジュール、(4)分割データ処理モジュール、(5)スコアリングモジュール、(6)投影モジュール、(7)適合モジュール、(8)スコアリング及びエラー検出モジュール、(9)回復モジュール、(10)三次元相関モジュール、(11)三次元骨格予測モジュール、及び(12)出力モジュール、とを具える。   In accordance with an embodiment of the present invention, a 3D human machine interface (“3D HMI”) is provided, which includes (1) an image acquisition assembly, (2) an activation module, (3) an image segmentation module, ( 4) split data processing module, (5) scoring module, (6) projection module, (7) fitting module, (8) scoring and error detection module, (9) recovery module, (10) three-dimensional correlation module, (11) a three-dimensional skeleton prediction module; and (12) an output module.

本発明の実施例によれば、画像取得アセンブリは画像セットを取得するように構成することができ、ここで、実質的に各画像は異なる時点で使用される。本発明の更なる実施例では、この画像は、単一のユーザに関するもの、あるいは複数ユーザに関するものである。   According to an embodiment of the present invention, the image acquisition assembly can be configured to acquire an image set, wherein substantially each image is used at a different time. In a further embodiment of the invention, this image relates to a single user or to multiple users.

本発明の実施例によれば、起動モジュールは、ユーザの(1)色、(2)器官パラメータ、環境、及びユーザに関連するその他のパラメータを検出して規定するように構成することができる。   In accordance with an embodiment of the present invention, the activation module can be configured to detect and define the user's (1) color, (2) organ parameters, environment, and other parameters associated with the user.

本発明の実施例によれば、ユーザは人及び/又は動物及び/又はそのフレームに入る移動物体であってもよい。   According to embodiments of the present invention, the user may be a person and / or animal and / or a moving object that enters its frame.

本発明の実施例によれば、画像分割モジュールは、画像から分割したデータを抽出するように構成することができる。本発明の更なる実施例によれば、この分割したデータも:
・色
・動き
・エッジ検出
・テキスチュア
を具えていても良い。
According to an embodiment of the present invention, the image segmentation module can be configured to extract segmented data from an image. According to a further embodiment of the invention, this split data is also:
-Color / movement / edge detection / texture may be provided.

本発明の実施例によれば、分割データ処理モジュールは、分割データを処理するように構成することができる。本発明の更なる実施例によれば、分割データは以下の方法で処理することができる:
・色−既知の色パラメータを用いて、要素及び/又は光の変化を検出する。例えば、皮膚の色を用いて手のひらと顔を検出する。
・動き−フレーム中の移動要素を検出する。
・背景の除去。
・エッジ検出−画像のエッジを検出する。
・テキスチュア−既知のテキスチュアパラメータを用いて要素を検出する。
According to an embodiment of the present invention, the divided data processing module can be configured to process the divided data. According to a further embodiment of the invention, the split data can be processed in the following way:
Color—Detects element and / or light changes using known color parameters. For example, palms and faces are detected using skin color.
• Movement-detects moving elements in the frame.
-Background removal.
Edge detection—detects the edge of the image.
Texture—Detects elements using known texture parameters.

本発明の実施例によれば、分割データ処理モジュールは、器官の相対的サイズの偏差に応じて、画像取得アッセンブリからの器官の距離の偏差を検出するように構成されている。   According to an embodiment of the present invention, the split data processing module is configured to detect a deviation in organ distance from the image acquisition assembly in response to a deviation in relative organ size.

本発明の実施例によれば、スコアリングモジュールは、(1)処理済分割データを検査する、(2)処理済分割データの品質を予測する、およびこの品質に応じて、分割データのどの部分がHMIシステムによって使用するのに十分に信頼できるかを決定する、ように構成することができる。   According to an embodiment of the invention, the scoring module (1) examines the processed divided data, (2) predicts the quality of the processed divided data, and depending on this quality, which part of the divided data Can be configured to determine if it is reliable enough for use by the HMI system.

本発明の実施例によれば、三次元骨格予測モジュールが、処理画像の最良の合致あるいは関係を有する三次元骨格の位置を予測するように構成することができる。   According to an embodiment of the present invention, the 3D skeleton prediction module can be configured to predict the position of the 3D skeleton having the best match or relationship of the processed images.

本発明の実施例によれば、三次元予測モジュールが、使用する骨格のタイプから得る制約、例えば、骨格が人間の指であるかどうか、骨格のヘッドが360度回転できるかどうか、といった制約を使用することができる。   According to an embodiment of the present invention, the 3D prediction module has constraints from the type of skeleton used, such as whether the skeleton is a human finger or whether the skeleton head can rotate 360 degrees. Can be used.

本発明の更なる実施例によれば、三次元予測モジュールは、動的及び動作プロセスセットを用いて、三次元骨格の位置を予測することもできる。   According to a further embodiment of the present invention, the 3D prediction module can also predict the position of the 3D skeleton using dynamic and motion process sets.

本発明の実施例によれば、投影モジュールは、画像上に骨格を投影するように構成することができる。本発明の更なる実施例によれば、この投影を2次元平面に適用することができる。   According to an embodiment of the present invention, the projection module can be configured to project a skeleton on an image. According to a further embodiment of the invention, this projection can be applied to a two-dimensional plane.

本発明の実施例によれば、適合モジュールを投影した骨格に分割データを適合させるように構成することができる。本発明の更なる実施例によれば、適合モジュールは、分割データの部分を投影した骨格の部分に関連付けるように構成することができる。   According to the embodiment of the present invention, the division data can be adapted to the skeleton on which the adaptation module is projected. According to a further embodiment of the present invention, the adaptation module may be configured to associate the segmented data portion with the projected skeleton portion.

本発明の実施例によれば、スコアリング及びエラー検出モジュールは、(1)分割データに関連付けた後処理した骨格を検査し、(2)前記骨格の適合品質を試験し、(3)骨格予測プログラムあるいは分割データの関連付けの間にエラーが発生したかどうかを決定する、ように構成することができる。   According to an embodiment of the present invention, the scoring and error detection module (1) examines the post-processed skeleton associated with the segmented data, (2) tests the quality of the skeleton, and (3) skeleton prediction. It can be configured to determine whether an error has occurred during the association of the program or split data.

本発明の実施例によれば、回復モジュールは、検出したエラーから回復するように構成することができる。本発明の更なる実施例によれば、回復は、画像を再分割し、3D骨格移動歴をもちいて、正しい位置を再度予測し、3D骨格を再度投影して再度適合させる、多段処理層のプロセスであっても良い。回復モジュールは、画像情報が破損している場合、フレームをスキップするよう決定することもできる。   According to an embodiment of the present invention, the recovery module can be configured to recover from detected errors. According to a further embodiment of the invention, the recovery is a multi-stage processing layer that re-segments the image, uses the 3D skeleton movement history, re-predicts the correct position, re-projects the 3D skeleton and adapts again. It may be a process. The recovery module may also decide to skip the frame if the image information is corrupted.

本発明の実施例によれば、三次元相関モジュールは、適合骨格の位置に応じて三次元骨格の位置を更新するように構成することができる。   According to an embodiment of the present invention, the three-dimensional correlation module can be configured to update the position of the three-dimensional skeleton according to the position of the matching skeleton.

本発明の更なる実施例によれば、前記更新プロセスは、適合骨格上の三次元3D骨格に関連し、3D骨格と適合骨格間を適合させ、3D骨格を適正な位置に更新する。   According to a further embodiment of the present invention, the update process relates to a three-dimensional 3D skeleton on a compatible skeleton, matches between the 3D skeleton and the compatible skeleton, and updates the 3D skeleton to the proper position.

本発明に関する主題は、本明細書の最終部分に特に指摘されており、明確に請求されている。しかしながら、本発明は、組織と操作方法の両方に関するものであり、その対象、特徴、および利点とともに、添付する図面とともに以下の詳細な説明を参照して読むことによって最もよく理解されるであろう。
図1は、本発明の実施例によるシステムを記載したブロック図である。 図2は、本発明の実施例によるHMIシステムのステップを記載したフローチャートである。 図3は、本発明の実施例によるシステムを記載したブロック図である。 図4は、本発明の実施例によるHMIシステムのステップを記載したフローチャートである。 図5は、本発明の実施例によるシステムを記載したブロック図である。 図6は、本発明の実施例によるHMIシステムのステップを記載したフローチャートである。
The subject matter relating to the invention is particularly pointed out and distinctly claimed in the final part of the specification. However, the present invention relates to both tissue and method of operation, and together with its objects, features and advantages, will be best understood by reading the following detailed description in conjunction with the accompanying drawings. .
FIG. 1 is a block diagram illustrating a system according to an embodiment of the present invention. FIG. 2 is a flowchart describing the steps of an HMI system according to an embodiment of the present invention. FIG. 3 is a block diagram illustrating a system according to an embodiment of the present invention. FIG. 4 is a flowchart describing the steps of an HMI system according to an embodiment of the present invention. FIG. 5 is a block diagram illustrating a system according to an embodiment of the present invention. FIG. 6 is a flowchart describing the steps of an HMI system according to an embodiment of the present invention.

図を単純かつ明確なものにするために、図面に示す要素はスケールどおりである必要はない。例えば、いくつかの要素の寸法は、明確にするために他の要素に対して誇張するようにしても良い。更に、対応するあるいは類似の要素を表示するに当たり、図面間で符号を繰り返し使用することがある。   The elements shown in the drawings need not be to scale in order to make the figures simple and clear. For example, the dimensions of some elements may be exaggerated relative to other elements for clarity. In addition, symbols may be repeatedly used between the drawings to display corresponding or similar elements.

以下の詳細な説明において、本発明を完全に理解できるようにするため、数値で特定して詳細を示すようにしている。しかしながら、当業者には、本発明がこれらの特定な詳細なしでも理解できることは明らかである。その他の場合、公知の方法、手順、構成要素および回路は、詳細には説明されていないが、本発明を不明瞭にしない程度には説明されている。   In the following detailed description, specific details are set forth in order to provide a thorough understanding of the present invention. However, it will be apparent to one skilled in the art that the present invention may be understood without these specific details. In other instances, well-known methods, procedures, components, and circuits have not been described in detail but have been described so as not to obscure the present invention.

特に述べられていない限り、以下の説明から明らかなとおり、本明細書を通じて、「処理する」「コンピュータで計算する」「計算する」「決定する」などの用語を用いた説明は、コンピュータまたはコンピュータシステム、または、同様の電子コンピュータ装置の動作及び/又はプロセスを意味し、これは、コンピュータシステムのレジスタ及び/又はメモリ内の電子などの物理的量として表わされるデータを、コンピュータシステムのメモリ、レジスタあるいはその他の情報保存、転送あるいは表示する装置内の物理量として同様に表わされたその他のデータに、操作する及び/又は変形する。   Unless otherwise stated, as will be apparent from the following description, throughout this specification, descriptions using terms such as “process”, “calculate by computer”, “calculate”, and “determine” Means the operation and / or process of a system, or similar electronic computer device, which represents data represented as physical quantities, such as electronics in a computer system's registers and / or memory, in a computer system's memory, registers Alternatively, other data is manipulated and / or transformed into other data similarly represented as physical quantities in the device to store, transfer or display information.

本発明の実施例は、ここに述べる動作を実行する装置を含むものである。この装置は、所望の目的のために特別に構成されているか、あるいは、コンピュータに保存されているコンピュータプログラムによって選択的に達成されるあるいは再構築される、汎用目的のコンピュータを具えていても良い。このようなコンピュータプログラムは、限定するものではないが、フロッピィディスク、光ディスク、CD−ROM、光磁気ディスク、読み取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、電子的にプログラム可能な読み取り専用メモリ(EPROM)、電子的に消去可能かつプログラム可能な読み取り専用メモリ(EEPROM)、磁気あるいは光カード、あるいは電子インストラクションの保存に適したその他の媒体、を含むあらゆるタイプのディスクなど、コンピュータで読み取り可能で、コンピュータシステムバスに接続可能なストレージ媒体に保存することができる。   Embodiments of the present invention include devices that perform the operations described herein. The apparatus may be specially configured for the desired purpose, or may comprise a general purpose computer that is selectively achieved or reconstructed by a computer program stored on the computer. . Such computer programs include but are not limited to floppy disks, optical disks, CD-ROMs, magneto-optical disks, read only memory (ROM), random access memory (RAM), electronically programmable read only memory. Computer readable, such as any type of disc, including (EPROM), electronically erasable and programmable read-only memory (EEPROM), magnetic or optical cards, or other media suitable for storing electronic instructions Can be stored on a storage medium connectable to the computer system bus.

本発明の実施例によれば、3D人機械インターフェース(3D HMI)が提供されており、この3D HMIは、(1)画像取得アッセンブリと、(2)起動モジュールと、(3)画像分割モジュールと、(4)分割データ処理モジュールと、(5)スコアリングモジュールと、(6)投影モジュールと、(7)適合モジュールと、(8)スコアリング及びエラー検出モジュールと、(9)回復モジュールと、(10)三次元相関モジュールと、(11)三次元骨格予測モジュールと、及び(12)出力モジュール、とを具える。   According to an embodiment of the present invention, a 3D human-machine interface (3D HMI) is provided, which includes (1) an image acquisition assembly, (2) an activation module, (3) an image segmentation module, and (4) split data processing module; (5) scoring module; (6) projection module; (7) matching module; (8) scoring and error detection module; and (9) recovery module; (10) a three-dimensional correlation module; (11) a three-dimensional skeleton prediction module; and (12) an output module.

本発明の実施例によれば、画像取得アッセンブリは、画像セットを取得するように構成されており、このアッセンブリでは、各画像が実質的に異なる時点で使用される。本発明の更なる実施例では、画像は単独ユーザに関するものであっても良く、あるいは複数ユーザに関するものであっても良い。   According to an embodiment of the invention, the image acquisition assembly is configured to acquire a set of images, where each image is used at a substantially different point in time. In further embodiments of the invention, the image may relate to a single user or may relate to multiple users.

本発明の実施例によれば、起動モジュールは、ユーザの(1)色、(2)組織パラメータ、環境、及びユーザに関連するその他のパラメータを検出して規定し、次のステップにおいて画像分割の最良の方法(スレッシュホールド、各画像分割についてのスコア、その他)を決定するように構成することができる。   According to an embodiment of the present invention, the activation module detects and defines the user's (1) color, (2) tissue parameters, environment, and other parameters associated with the user, and in the next step It can be configured to determine the best method (threshold, score for each image segmentation, etc.).

本発明の実施例によれば、画像分割モジュールは、画像から分割データを抽出するように構成されている。本発明の更なる実施例によれば、この分割データは:
・色
・動き
・エッジ検出
・テキスチュア
を具えていても良い。
According to an embodiment of the present invention, the image segmentation module is configured to extract segmented data from the image. According to a further embodiment of the invention, this split data is:
-Color / movement / edge detection / texture may be provided.

本発明の実施例によれば、分割画像処理モジュールは、分割データを処理するように構成されている。本発明の更なる実施例によれば、この分割データは:
・色−既知の色パラメータを用いて要素及び/又は光の変化を検出する。例えば、皮膚の色を用いて手のひらと顔を検出する。
・動き−フレーム中の移動する要素を検出する。
・背景の除去。
・エッジ検出−画像のエッジを検出する。
・テキスチュア−既知のテキスチュアパラメータを用いて要素を検出する。
といった方法で処理を行うことができる。
According to an embodiment of the present invention, the divided image processing module is configured to process the divided data. According to a further embodiment of the invention, this split data is:
Color—Detects element and / or light changes using known color parameters. For example, palms and faces are detected using skin color.
• Movement-detects moving elements in a frame.
-Background removal.
Edge detection—detects the edge of the image.
Texture—Detects elements using known texture parameters.
It is possible to perform processing by such a method.

本発明の実施例によれば、スコアリングモジュールは、(1)処理した分割データを検証する、(2)処理した分割データの品質を予測する、そして、この品質に応じて(3)分割データのどの部分がHMIシステムによって使用するにたるほど信頼性があるかを決定する。   According to an embodiment of the present invention, the scoring module (1) verifies the processed divided data, (2) predicts the quality of the processed divided data, and (3) the divided data according to the quality. Determine which part of the is reliable enough to be used by the HMI system.

本発明の実施例によれば、三次元骨格予測モジュールは、処理画像に最も合致するあるいは最も関連性の高い三次元骨格の位置を予測するように構成することができる。   According to an embodiment of the present invention, the 3D skeleton prediction module can be configured to predict the position of the 3D skeleton that best matches or is most relevant to the processed image.

本発明の更なる実施例によれば、三次元予測モジュールは、使用した骨格のタイプから得た制限を使用することができる。例えば、骨格が人の形であれば、骨格のヘッドは360度回転することができない。   According to a further embodiment of the invention, the 3D prediction module can use the restrictions derived from the type of skeleton used. For example, if the skeleton is a human figure, the skeleton head cannot rotate 360 degrees.

本発明の更なる実施例によれば、三次元予測モジュールは、動的かつ移動プロセスセットを用いて、三次元骨格の位置を予測することができる。   According to a further embodiment of the present invention, the 3D prediction module can predict the position of the 3D skeleton using a dynamic and moving process set.

本発明の実施例によれば、投影モジュールは、画像上に骨格を投影するように構成することができる。本発明の更なる実施例によれば、この投影を二次元平面に適用することができる。   According to an embodiment of the present invention, the projection module can be configured to project a skeleton on an image. According to a further embodiment of the invention, this projection can be applied to a two-dimensional plane.

本発明の実施例によれば、適合モジュールは、分割データを投影した骨格に適合させるように構成することができる。本発明の更なる実施例によれば、適合モジュールは、分割データの部分を投影した骨格の部分に関連させるように構成することができる。   According to an embodiment of the present invention, the adaptation module can be configured to adapt the segmented data to the projected skeleton. According to a further embodiment of the present invention, the adaptation module can be configured to associate the segmented data portion with the projected skeleton portion.

本発明の実施例によれば、スコアリング及びエラー検出モジュールは、(1)処理した骨格を分割データに関連付けた後、この骨格を試験して、(2)当該骨格の適合品質を評価して、(3)骨格予測プロセスまたは分割データの関連付けを行う間にエラーが生じたか否かを決定する、ように構成することができる。   According to an embodiment of the present invention, the scoring and error detection module (1) associates the processed skeleton with the divided data, then tests the skeleton, and (2) evaluates the conformity quality of the skeleton. , (3) determining whether an error has occurred during the skeletal prediction process or the association of the divided data.

本発明の実施例によれば、回復モジュールは、検出したエラーから回復するように構成することができる。本発明の更なる実施例によれば、この回復は層の処理、画像の再分割、3D骨格の移動歴を用いて正しい位置の予測、3D骨格の再適合といった複数のプロセスである。回復モジュールは、画像情報が破損した場合フレームをスキップするよう決定することもできる。   According to an embodiment of the present invention, the recovery module can be configured to recover from detected errors. According to a further embodiment of the invention, this recovery is a multiple process such as layer processing, image subdivision, 3D skeleton movement history to predict correct location, 3D skeleton refit. The recovery module may also decide to skip the frame if the image information is corrupted.

本発明の実施例によれば、三次元相関モジュールは、適合した骨格の位置に応じて三次元骨格の位置を更新するように構成することができる。   According to an embodiment of the present invention, the three-dimensional correlation module can be configured to update the position of the three-dimensional skeleton according to the position of the adapted skeleton.

本発明の更なる実施例によれば、前記更新プロセスが3D骨格を適合した骨格上に関連付け、3D骨格と適合した骨格間を適合させ、3D骨格を正しい位置に更新する。   According to a further embodiment of the present invention, the update process associates the 3D skeleton with the matched skeleton, matches between the 3D skeletons and matches the 3D skeleton to the correct position.

図1に戻ってこれを参照すると、本発明の実施例による例示的HMIシステムが示されており、このシステムは、このようなHMIシステムのステップを記載したフローチャートである図2に最もよく記載されている。   Referring back to FIG. 1, an exemplary HMI system according to an embodiment of the present invention is shown and is best described in FIG. 2, which is a flowchart describing the steps of such an HMI system. ing.

本発明の実施例によれば、図1は、3D人機械インターフェース(3D HMI)を示す図であり、この3D HMIは、(1)画像取得アッセンブリ1000と、(2)起動モジュール1100と、(3)画像分割モジュール1200と、(4)分割データ処理モジュール1300と、(5)スコアリングモジュール1400と、(6)投影モジュール1450と、(7)適合モジュール1500と、(8)スコアリング及びエラー検出モジュール1550と、(9)回復モジュール1600と、(10)三次元相関モジュール1700と、(11)三次元骨格予測モジュール1800と、(12)出力モジュール1900と、を具える。   In accordance with an embodiment of the present invention, FIG. 1 is a diagram illustrating a 3D human machine interface (3D HMI), which includes (1) an image acquisition assembly 1000, (2) an activation module 1100, ( 3) Image segmentation module 1200, (4) Segmented data processing module 1300, (5) Scoring module 1400, (6) Projection module 1450, (7) Adaptation module 1500, (8) Scoring and errors A detection module 1550; (9) a recovery module 1600; (10) a three-dimensional correlation module 1700; (11) a three-dimensional skeleton prediction module 1800; and (12) an output module 1900.

本発明の実施例によれば、画像取得アッセンブリは、ステップ2000に記載のように、画像セットを取得するように構成されており、この画像セットの各画像は実質的に異なる時点で使用される。本発明の更なる実施例によれば、この画像は、単一のユーザまたは複数ユーザの画像である。   According to an embodiment of the present invention, the image acquisition assembly is configured to acquire an image set, as described in step 2000, and each image of the image set is used at a substantially different time. . According to a further embodiment of the invention, the image is a single user or multi-user image.

本発明の更なる実施例によれば、画像取得アッセンブリは、デジタルカメラと、ウェブカメラと、フィルムカメラと、ビデオカメラと、ウェブカメラと、デジタルビデオカメラと、アナログビデオカメラと、ステレオ−カメラ及び/又は今日知られているあるいは将来出てくるであろうその他のカメラを具えていても良い。   According to a further embodiment of the invention, the image acquisition assembly comprises a digital camera, a webcam, a film camera, a video camera, a webcam, a digital video camera, an analog video camera, a stereo-camera and And / or other cameras that are known today or that will come out in the future.

本発明の実施例によれば、システムが一またはそれ以上の画像を取得した後、システムが起動モジュール1100で実行される起動フェーズであるステップ2100に入る。起動モジュールは、ユーザの、(1)色、(2)組織パラメータ、(3)環境、及び、ユーザに関連するその他のパラメータを検出して規定するように構成されている。   According to an embodiment of the invention, after the system has acquired one or more images, the system enters step 2100, which is an activation phase that is executed by the activation module 1100. The activation module is configured to detect and define the user's (1) color, (2) organization parameters, (3) environment, and other parameters associated with the user.

本発明の実施例によれば、ステップ2200に示すように、システムは分割データを抽出するように構成されている。この分割データは、
・色
・動き
・エッジ検出
・テキスチュア
を具えていても良い。
According to an embodiment of the present invention, as shown in step 2200, the system is configured to extract split data. This split data is
-Color / movement / edge detection / texture may be provided.

本発明の更なる実施例によれば、画像分割モジュール1200は、この画像から分割データを抽出するように構成されている。   According to a further embodiment of the invention, the image segmentation module 1200 is configured to extract segmented data from this image.

本発明の実施例によれば、ステップ2300に示すように、システムが分割データを処理するように構成されている。本発明の更なる実施例によれば、この分割データは:
・色−既知の色パラメータを用いて要素及び/又は光の変化を検出する。例えば、皮膚の色を用いて手のひらと顔を検出する。
・動き−フレーム中の移動する要素を検出する。
・背景の除去。
・エッジ検出−画像のエッジを検出する。
・テキスチュア−既知のテキスチュアパラメータを用いて要素を検出する。
といった方法で処理を行うことができる。
According to an embodiment of the present invention, as shown in step 2300, the system is configured to process split data. According to a further embodiment of the invention, this split data is:
Color—Detects element and / or light changes using known color parameters. For example, palms and faces are detected using skin color.
• Movement-detects moving elements in a frame.
-Background removal.
Edge detection—detects the edge of the image.
Texture—Detects elements using known texture parameters.
It is possible to perform processing by such a method.

本発明の更なる実施例によれば、分割データ処理モジュール1300は、分割データを処理するように構成されている。   According to a further embodiment of the invention, the split data processing module 1300 is configured to process split data.

本発明の実施例によれば、このシステムは、ステップ2400に示すように、分割データの品質を評価するように構成されており、この評価は、(1)処理した分割データを検査するステップ、(2)処理した分割データの品質を予測するステップ、及び、この予測した品質によって(3)分割データのどの部分がHMIシステムによって使用するのに十分に信頼性があるかどうかを決定するステップ、とによって行われる。   According to an embodiment of the present invention, the system is configured to evaluate the quality of the split data, as shown in step 2400, which comprises (1) examining the processed split data; (2) predicting the quality of the processed split data, and (3) determining which part of the split data is sufficiently reliable for use by the HMI system with the predicted quality; And done.

本発明の更なる実施例によれば、スコアリングモジュール1400は、分割した情報の品質を評価するように構成されている。   According to a further embodiment of the invention, scoring module 1400 is configured to evaluate the quality of the segmented information.

本発明の更なる実施例によれば、このシステムは、ステップ2800に示すように、三次元骨格の位置を予測するように構成されており、この位置は、処理した画像に最も合致するあるいは処理した画像と相関する。本発明の更なる実施例によれば、この予測は、使用した骨格のタイプから取り出した制限を用いてより正確に行われる。制限は、例えば、骨格が人の形であれば、骨格の頭部は、肩の動きなしでは360度回転することができないといったものである。   According to a further embodiment of the present invention, the system is configured to predict the position of the three-dimensional skeleton as shown in step 2800, which position best matches the processed image or is processed. Correlate with the captured image. According to a further embodiment of the invention, this prediction is made more accurately with the restrictions taken from the type of skeleton used. For example, if the skeleton is in the form of a person, the head of the skeleton cannot rotate 360 degrees without shoulder movement.

本発明の実施例によれば、予測シーケンスは動的な動きプロセス、その他のセットを使用することができる。   According to an embodiment of the present invention, the prediction sequence may use a dynamic motion process or other set.

本発明の実施例によれば、三次元骨格予測モジュール1800は、三次元骨格の位置を予測するように構成されている。   According to an embodiment of the present invention, the 3D skeleton prediction module 1800 is configured to predict the position of the 3D skeleton.

本発明の実施例によれば、このシステムは、更に、ステップ2450に示すように、画像上に骨格を投影するように構成することができる。本発明の更なる実施例によれば、この投影は、2次元平面に適用することができる。   In accordance with an embodiment of the present invention, the system can be further configured to project a skeleton onto the image, as shown in step 2450. According to a further embodiment of the invention, this projection can be applied to a two-dimensional plane.

本発明の実施例によれば、この投影モジュール1450は、画像上に骨格を投影するように構成することができる。   According to an embodiment of the present invention, the projection module 1450 can be configured to project a skeleton onto an image.

本発明の実施例によれば、このシステムは更に、ステップ2500に示すように、投影した骨格を用いて、分割データを適合させるように構成することができる。本発明の更なる実施例によれば、この適合プロセスは、投影した骨格の部分と分割データの部分とを関連づけるステップを具えていても良い。   In accordance with an embodiment of the present invention, the system can be further configured to adapt the split data using the projected skeleton, as shown in step 2500. According to a further embodiment of the invention, the fitting process may comprise associating the projected skeleton part with the segmented data part.

本発明の実施例によれば、分割データの適合ステップが、抽出した分割データを現在の骨格パラメータと関連づけるステップを具えており、この現在の骨格パラメータは、抽出した分割データの関連する部分を支持する。   According to an embodiment of the present invention, the step of adapting the split data comprises the step of associating the extracted split data with the current skeleton parameter, the current skeleton parameter supporting the relevant part of the extracted split data. To do.

本発明の更なる実施例によれば、この処理の結果が「適合した骨格」である。   According to a further embodiment of the invention, the result of this process is a “fit skeleton”.

本発明の更なる実施例によれば、適合モジュール1500は、分割データを投影した骨格に関連づけるように構成されている。   According to a further embodiment of the invention, the adaptation module 1500 is configured to associate the segmented data with the projected skeleton.

本発明の実施例によれば、このシステムは更にステップ2550に示すように、適合した骨格にスコアをつけて、エラーを検出するように構成されている。本発明の実施例によれば、スコアを付けてエラーを検出するステップは、(1)適合した骨格を検査するステップと、(2)この骨格の適合品質を評価するステップと、(3)骨格予測プロセスあるいは分割データの関連づけを行う間にエラーが生じたかどうかを決定するステップと、を具える。   In accordance with an embodiment of the present invention, the system is further configured to score the matched skeleton and detect errors, as shown in step 2550. According to an embodiment of the present invention, the step of scoring and detecting errors comprises: (1) examining a matched skeleton; (2) evaluating the fit quality of the skeleton; and (3) a skeleton. Determining whether an error has occurred during the prediction process or associating the split data.

本発明の実施例によれば、このスコアリング及びエラー検出モジュール1550は、スコアを付けてエラーを検出するように構成されている。   According to an embodiment of the invention, the scoring and error detection module 1550 is configured to score and detect errors.

本発明の実施例によれば、ステップ2550においてエラーが検出されると、ステップ2600に示すようにシステムが回復フェーズに入る。この回復プロセスは、複数の処理層でなるプロセスである。   According to an embodiment of the present invention, if an error is detected at step 2550, the system enters the recovery phase as shown at step 2600. This recovery process is a process including a plurality of processing layers.

本発明の実施例によれば、回復フェーズは、画像の再分割ステップ、3D骨格位置の再予測、拡張エフォートを用いた骨格の再投影及び再適合ステップを具える。本発明の更なる実施例によれば、この拡張モジュールは、画像情報が壊れている場合一又はそれ以上のフレームをスキップするよう決定することができる。   According to an embodiment of the present invention, the recovery phase comprises an image re-segmentation step, a 3D skeleton position re-prediction, a skeleton re-projection with extended effort and a re-fit step. According to a further embodiment of the present invention, the extension module may decide to skip one or more frames if the image information is corrupted.

本発明の実施例によれば、回復を行う間にシステムは、そのフレームに対象のトラッキングがないことを検出するよう構成されている。本発明の更なる実施例によれば、システムは、対象がそのフレームに戻るまで一またはそれ以上のフレームをスキップするよう構成することができる。   In accordance with an embodiment of the present invention, during recovery, the system is configured to detect that there is no target tracking in that frame. According to a further embodiment of the invention, the system can be configured to skip one or more frames until the subject returns to that frame.

本発明の更なる実施例によれば、回復フェーズは、起動ステップにシステムを戻すことができる。   According to a further embodiment of the invention, the recovery phase can return the system to the startup step.

本発明の実施例によれば、回復モジュール1600は、回復プロセスを実行するように構成されている。   According to an embodiment of the present invention, recovery module 1600 is configured to perform a recovery process.

本発明の実施例によれば、ステップ2550の間にエラーが検出されなければ、システムは、ステップ2700に示すように、適合骨格の位置に応じて三次元骨格の位置を更新するように構成することができる。本発明の更なる実施例によれば、更新プロセスは、(1)適合骨格の上に3D骨格を投影するステップと、(2)3D骨格を適合骨格に関連付けるステップと、(3)3D骨格の位置を更新するステップと、を具える。   According to an embodiment of the present invention, if no error is detected during step 2550, the system is configured to update the position of the three-dimensional skeleton according to the position of the matching skeleton, as shown in step 2700. be able to. According to a further embodiment of the present invention, the update process comprises (1) projecting a 3D skeleton onto a conforming skeleton, (2) associating the 3D skeleton with the conforming skeleton, and (3) the 3D skeleton. Updating the position.

本発明の実施例によれば、三次元相関モジュール1700は、三次元骨格の位置を更新するように構成することができる。   According to an embodiment of the present invention, the three-dimensional correlation module 1700 can be configured to update the position of the three-dimensional skeleton.

本発明の実施例によれば、三次元相関モジュール1700と骨格予測モジュール1800は、本出願と同じ譲受人に譲渡された、2005年7月31日に出願されたPCT出願、PCT/IL2005/000813号に記載のアルゴリズムとプロセスのいくつかあるいは全てを用いることができる。   According to an embodiment of the present invention, the 3D correlation module 1700 and the skeleton prediction module 1800 are assigned to the same assignee as the present application, PCT application filed July 31, 2005, PCT / IL2005 / 000813. Some or all of the algorithms and processes described in the issue can be used.

図3を参照すると、本発明の実施例による例示的HMIシステムが示されている。このシステムは、HMIシステムのステップを記載したフローチャートが示されている図4に関連付けて最もよく述べられている。   Referring to FIG. 3, an exemplary HMI system according to an embodiment of the present invention is shown. This system is best described in connection with FIG. 4, where a flowchart describing the steps of the HMI system is shown.

本発明の実施例によれば、図3は、3D人機械インターフェース(3D HMI)を示すものであり、この3D HMIは、(1)Zlens画像取得アッセンブリ3000と、(2)起動モジュール3100と、(3)画像分割モジュール3200と、(4)分割データ処理モジュール3300と、(5)適合モジュール3500と、(6)スコアリングモジュール3550と、(7)三次元相関モジュール3700と、(8)出力モジュール3900と、を具えている。   In accordance with an embodiment of the present invention, FIG. 3 illustrates a 3D human machine interface (3D HMI) that includes (1) a Zlens image acquisition assembly 3000, (2) an activation module 3100, (3) Image segmentation module 3200, (4) Segmented data processing module 3300, (5) Adaptation module 3500, (6) Scoring module 3550, (7) Three-dimensional correlation module 3700, (8) Output A module 3900.

本発明の実施例によれば、Zlens取得アッセンブリは、ステップ4000に見られるように、画像セットを取得するように構成されており、各画像は実質的に異なる時間に使用している。本発明の更なる実施例によれば、画像は単一のユーザあるいは複数ユーザのものでも良い。   According to an embodiment of the present invention, the Zlens acquisition assembly is configured to acquire a set of images, as seen in step 4000, with each image being used at a substantially different time. According to further embodiments of the invention, the image may be of a single user or multiple users.

本発明の実施例によれば、Zlens取得アッセンブリは、例えば、図1の要素1000である、別の画像取得アッセンブリに乗せるようにしても良い。   According to an embodiment of the present invention, the Zlens acquisition assembly may be mounted on another image acquisition assembly, for example, element 1000 of FIG.

本発明の更なる実施例によれば、Zlens取得アッセンブリ(3000)は、本出願と同じ譲受人に譲渡された、2006年10月31日に出願された、PCT/IL2006/001254号と、本出願と同じ譲受人に譲渡された、2005年10月31日に出願された米国特許出願60/731,274号とに関連して最もよく述べられている。   According to a further embodiment of the present invention, the Zlens acquisition assembly (3000) is assigned to PCT / IL2006 / 001254, filed October 31, 2006, assigned to the same assignee as the present application, It is best described in connection with US patent application 60 / 731,274, filed October 31, 2005, assigned to the same assignee as the application.

本発明の実施例によれば、システムは更に、ステップ4100に示すように起動モジュール3100によって実行される起動フェーズに入るように構成されている。この起動モジュールは、(1)色、(2)器官パラメータ、環境、及び(3)ユーザに関連するその他のパラメータを検出して規定するように構成することができる。   According to an embodiment of the present invention, the system is further configured to enter an activation phase that is executed by the activation module 3100 as shown in step 4100. The activation module can be configured to detect and define (1) color, (2) organ parameters, environment, and (3) other parameters associated with the user.

本発明の実施例によれば、システムは、ステップ4200に示すように、分割データを抽出するように構成することができ、この分割データは:
・色
・動き
・エッジ検出
・テキスチュア
を具える。
According to an embodiment of the present invention, the system can be configured to extract split data, as shown in step 4200, which split data is:
・ Includes color, movement, edge detection, and texture.

本発明の更なる実施例によれば、画像分割モジュール3200は、画像から分割データを抽出するように構成されている。   According to a further embodiment of the invention, the image segmentation module 3200 is configured to extract segmented data from the image.

本発明の実施例によれば、このシステムは、ステップ4300に示すように分割データを処理するように構成されている。本発明の更なる実施例によれば、分割データは以下のように処理される:
・色−既知の色のパラメータを用いて、要素及び/又は光の変化を検出する。例えば、皮膚の色を用いて手のひら及び顔を検出する。
・動き−フレーム中の移動要素を検出する。
・背景の除去。
・エッジ検出−各器官の輪郭を検出する。
・テキスチュア−既知のテキスチュアパラメータを用いて要素を検出する。
According to an embodiment of the present invention, the system is configured to process the split data as shown in step 4300. According to a further embodiment of the invention, the split data is processed as follows:
Color—Detects changes in elements and / or light using known color parameters. For example, palms and faces are detected using skin color.
• Movement-detects moving elements in the frame.
-Background removal.
Edge detection—detects the contour of each organ.
Texture—Detects elements using known texture parameters.

本発明の更なる実施例によれば、分割データ処理モジュール3300は、分割データを処理するように構成されている。   According to a further embodiment of the invention, the split data processing module 3300 is configured to process split data.

本発明の実施例によれば、本システムは更に、ステップ4500に示すように、抽出した分割データの部分を取得した画像に適合させるように構成することができる。本発明の更なる実施例によれば、この適合プロセスは、抽出した分割データの部分を、取得した画像の専用領域に関連付けるステップを具えていても良い。   According to an embodiment of the present invention, the system can be further configured to fit the extracted segmented data portion to the acquired image, as shown in step 4500. According to a further embodiment of the invention, the adaptation process may comprise associating the extracted segmented data portion with a dedicated region of the acquired image.

本発明の更なる実施例によれば、この専用領域は、システム中に保存する、あるいは起動フェーズ中に決定することができる。本発明の更なる実施例によれば、この専用領域は、ユーザの特定の器官(手、頭、足)であっても良く、あるいは3000で取得できるその他の要素であってもよい。   According to a further embodiment of the invention, this dedicated area can be stored in the system or determined during the startup phase. According to a further embodiment of the present invention, this dedicated region may be a user's specific organ (hand, head, foot) or other elements that can be obtained at 3000.

本発明の更なる実施例によれば、適合プロセスは、抽出した分割データが、専用領域に関連するパラメータを決定したかどうかを試験するステップを具えていても良い。   According to a further embodiment of the invention, the adaptation process may comprise the step of testing whether the extracted segmented data has determined the parameters associated with the dedicated area.

本発明の更なる実施例において、適合モジュール3500は、分割データの部分を取得した画像に関連付けるように構成することができる。   In a further embodiment of the present invention, the adaptation module 3500 can be configured to associate a portion of the segmented data with the acquired image.

本発明の更なる実施例によれば、このプロセスの出力が「適合画像」である。   According to a further embodiment of the invention, the output of this process is a “fit image”.

本発明の実施例によれば、このシステムは、更に、ステップ4550に示すように、適合分割データの品質を評価するように構成することができる。本発明の実施例によれば、適合分割データの品質を評価するステップは、(1)処理した分割データを検査するステップと、(2)処理した分割データの品質を予測するステップと、この予測した品質によって(3)分割データのどの部分がHMIシステムによって使用するのに十分に信頼性があるかを決定するステップと、(4)適合イメージを検査するステップと、(5)この画像の適合品質を評価するステップと、(6)分割データの関連付けを行う間にエラーが生じたかどうかを決定するステップと、を具える。   According to an embodiment of the present invention, the system can be further configured to evaluate the quality of the adaptive split data, as shown in step 4550. According to the embodiment of the present invention, the step of evaluating the quality of the adaptive divided data includes (1) inspecting the processed divided data, (2) predicting the quality of the processed divided data, and the prediction. (3) determining which part of the segmented data is sufficiently reliable for use by the HMI system, (4) examining the conforming image, and (5) conforming this image. And (6) determining whether an error has occurred during the association of the divided data.

本発明の実施例によれば、スコアリングモジュール3550は、適合分割データの品質を評価するように構成されている。   According to an embodiment of the present invention, the scoring module 3550 is configured to evaluate the quality of the adaptive split data.

本発明の更なる実施例によれば、このシステムはエラー検出メカニズムと、上述したとおりの回復メカニズムを具える。   According to a further embodiment of the invention, the system comprises an error detection mechanism and a recovery mechanism as described above.

本発明の実施例によれば、このシステムは、ステップ4700に示すように、Zlens画像取得アッセンブリを用いて、適合画像と深度マップの外挿によって三次元身体の位置を更新するように構成することができる。本発明の更なる実施例によれば、この更新プロセスは、抽出した深度マップを、抽出した分割データに関連付けるステップと、出力モデルの三次元身体の位置を更新するステップと、を具える。   According to an embodiment of the present invention, the system is configured to update the position of the three-dimensional body by extrapolating the fit image and the depth map using a Zlens image acquisition assembly, as shown in step 4700. Can do. According to a further embodiment of the invention, the updating process comprises associating the extracted depth map with the extracted segmented data and updating the 3D body position of the output model.

本発明の実施例によれば、三次元相関モジュール3700は、三次元身体の位置を更新するように構成されている。   According to an embodiment of the present invention, the three-dimensional correlation module 3700 is configured to update the position of the three-dimensional body.

本発明の実施例によれば、三次元相関モジュール3700と、Zlens画像取得アッセンブリ3000の機能性、特に、Zlens装置を用いて取得した画像が、本出願と同じ譲受人に譲渡された、2006年10月31日に出願された、PCT/IL2006/001254号と、本出願と同じ譲受人に譲渡された、2005年10月31日に出願された米国特許出願60/731,274号とに関連して最もよく述べられている。   According to an embodiment of the present invention, the functionality of the 3D correlation module 3700 and the Zlens image acquisition assembly 3000, in particular the images acquired using the Zlens device, was assigned to the same assignee as the present application, 2006. Related to PCT / IL2006 / 001254, filed Oct. 31, and US patent application 60 / 731,274, filed Oct. 31, 2005, assigned to the same assignee as the present application. And is best described.

図5を参照すると、本発明の実施例による例示的HMIシステムが示されており、このシステムは、HMIシステムのステップを記載したフローチャートである図6に関連して最もよく述べられている。   Referring to FIG. 5, an exemplary HMI system according to an embodiment of the present invention is shown and is best described in connection with FIG. 6, which is a flowchart describing the steps of the HMI system.

本発明の実施例によれば、図5は、3D人機械インターフェース(3D HMI)を示す図であり、この3D HMIは、(1)Zlens取得アッセンブリ5000と、(2)起動モジュール5100と、(3)画像分割モジュール5200と、(4)分割データ処理モジュール5300と、(5)スコアリングモジュール5400と、(6)投影モジュール5450と、(7)適合モジュール5500と、(8)スコアリング及びエラー検出モジュール5550と、(9)回復モジュール5600と、(10)三次元相関モジュール5700と、(11)三次元骨格予測モジュール5800と、(12)出力モジュール5900と、選択的に(13)深度抽出モジュール5050と、を具えている。   FIG. 5 is a diagram illustrating a 3D human machine interface (3D HMI) according to an embodiment of the present invention, which includes (1) a Zlens acquisition assembly 5000, (2) an activation module 5100, ( 3) Image segmentation module 5200, (4) Segmented data processing module 5300, (5) Scoring module 5400, (6) Projection module 5450, (7) Matching module 5500, (8) Scoring and errors Detection module 5550, (9) recovery module 5600, (10) three-dimensional correlation module 5700, (11) three-dimensional skeleton prediction module 5800, (12) output module 5900, and (13) depth extraction selectively A module 5050.

本発明の実施例によれば、Zlens取得アッセンブリは、ステップ6000に見られるように、画像セットを取得するように構成されており、各画像は実質的に異なる時間で使用されている。本発明の更なる実施例によれば、画像は単一のユーザあるいは複数ユーザのものでも良い。   In accordance with an embodiment of the present invention, the Zlens acquisition assembly is configured to acquire a set of images, as seen in step 6000, with each image being used at a substantially different time. According to further embodiments of the invention, the image may be of a single user or multiple users.

本発明の実施例によれば、Zlens取得アッセンブリは、例えば、図1の要素1000である、別の画像取得アッセンブリ上に乗せるようにしても良い。   According to embodiments of the present invention, the Zlens acquisition assembly may be placed on another image acquisition assembly, for example, element 1000 of FIG.

本発明の更なる実施例によれば、Zlens取得アッセンブリ(5000)は、本出願と同じ譲受人に譲渡された、2006年10月31日に出願された、PCT/IL2006/001254号と、本出願と同じ譲受人に譲渡された、2005年10月31日に出願された米国特許出願60/731,274号とに関連して最もよく述べられている。   According to a further embodiment of the present invention, the Zlens acquisition assembly (5000) is a PCT / IL2006 / 001254 filed October 31, 2006, assigned to the same assignee as the present application, It is best described in connection with US patent application 60 / 731,274, filed October 31, 2005, assigned to the same assignee as the application.

本発明の実施例によれば、システムが一またはそれ以上の画像を取得した後、システムは更に、起動モジュール5100によって実行される起動フェーズステップ6100に入るように構成されている。この起動モジュールは、(1)色、(2)器官パラメータ、(3)環境、及びユーザに関連するその他のパラメータを検出して規定するように構成することができる。   According to an embodiment of the present invention, after the system has acquired one or more images, the system is further configured to enter an activation phase step 6100 that is executed by the activation module 5100. The activation module can be configured to detect and define (1) color, (2) organ parameters, (3) environment, and other parameters associated with the user.

本発明の実施例によれば、システムは、ステップ6200に示すように、分割データを抽出するように構成することができ、この分割データは:
・色
・動き
・エッジ検出
・テキスチュア
を具える。
According to an embodiment of the present invention, the system can be configured to extract split data, as shown in step 6200, which is:
・ Includes color, movement, edge detection, and texture.

本発明の更なる実施例によれば、画像分割モジュール5200は、画像から分割データを抽出するように構成されている。   According to a further embodiment of the present invention, the image segmentation module 5200 is configured to extract segmented data from the image.

本発明の実施例によれば、このシステムは、ステップ6300に示すように分割データを処理するように構成されている。本発明の更なる実施例によれば、分割データは以下のように処理される:
・色−既知の色のパラメータを用いて、要素及び/又は光の変化を検出する。例えば、皮膚の色を用いて手のひら及び顔を検出する。
・動き−フレーム中の移動要素を検出する。
・背景の除去。
・エッジ検出−各器官の輪郭を検出する。
・テキスチュア−既知のテキスチュアパラメータを用いて要素を検出する。
According to an embodiment of the present invention, the system is configured to process the split data as shown in step 6300. According to a further embodiment of the invention, the split data is processed as follows:
Color—Detects changes in elements and / or light using known color parameters. For example, palms and faces are detected using skin color.
• Movement-detects moving elements in the frame.
-Background removal.
Edge detection—detects the contour of each organ.
Texture—Detects elements using known texture parameters.

本発明の更なる実施例によれば、分割データ処理モジュール5300は、分割データを処理するように構成されている。   According to a further embodiment of the present invention, the split data processing module 5300 is configured to process split data.

本発明の実施例によれば、このシステムは、ステップ6400に示すように、分割データの品質を評価するように構成することができる。この評価は、(1)処理した分割データを検査するステップと、(2)処理した分割データの品質を予測するステップと、この予測した品質によって(3)分割データのどの部分がHMIシステムによって使用するのに十分に信頼性があるかを決定するステップと、を具える。   According to an embodiment of the present invention, the system can be configured to evaluate the quality of the split data, as shown in step 6400. This evaluation consists of (1) inspecting the processed divided data, (2) predicting the quality of the processed divided data, and (3) which part of the divided data is used by the HMI system according to the predicted quality. Determining whether it is sufficiently reliable to do.

本発明の実施例によれば、スコアリングモジュール5400は、分割情報の品質を評価するように構成されている。   According to an embodiment of the present invention, the scoring module 5400 is configured to evaluate the quality of the split information.

本発明の更なる実施例によれば、このシステムは、ステップ6800に示すように、処理した画像に最も合致するあるいは処理した画像と相関する三次元骨格の位置を予測するように構成されている。本発明の更なる実施例によれば、この予測は、使用した骨格のタイプから取り出した制限を用いてより正確に行われる。制限は、例えば、骨格が人の形であれば、骨格の頭部は、肩の動きなしでは360度回転することができないといったものである。   According to a further embodiment of the present invention, the system is configured to predict the position of the three-dimensional skeleton that best matches or correlates with the processed image, as shown in step 6800. . According to a further embodiment of the invention, this prediction is made more accurately with the restrictions taken from the type of skeleton used. For example, if the skeleton is in the form of a person, the head of the skeleton cannot rotate 360 degrees without shoulder movement.

本発明の実施例によれば、予測シーケンスは動的な動きプロセスのセットを使用することができる。   According to an embodiment of the present invention, the prediction sequence can use a set of dynamic motion processes.

本発明の実施例によれば、三次元骨格予測モジュール5800は、三次元骨格の位置を予測するように構成されている。   According to an embodiment of the present invention, the 3D skeleton prediction module 5800 is configured to predict the position of the 3D skeleton.

本発明の更なる実施例によれば、このシステムは更に、ステップ6050に示すように、Zlens取得アッセンブリを用いて、深度を抽出するように構成することができる。このZlens取得アッセンブリは、本出願と同じ譲受人に譲渡された、2006年10月31日に出願された、PCT/IL2006/001254号と、本出願と同じ譲受人に譲渡された、2005年10月31日に出願された米国特許出願60/731,274号とに記載されている。   According to a further embodiment of the invention, the system can be further configured to extract depth using a Zlens acquisition assembly, as shown in step 6050. This Zlens acquisition assembly was assigned to PCT / IL2006 / 001254, filed October 31, 2006, assigned to the same assignee as the present application, and assigned to the same assignee as the present application. U.S. Patent Application No. 60 / 731,274 filed on Jan. 31.

本発明の実施例によれば、深度抽出モジュール5050は、取得画像から深度を抽出するように構成されている。   According to an embodiment of the present invention, the depth extraction module 5050 is configured to extract the depth from the acquired image.

本発明の実施例によれば、システムは更に、ステップ6450に示すように画像上に骨格を投影するように構成することができる。本発明の更なる実施例によれば、この投影を2次元平面に適用することができる。   In accordance with an embodiment of the present invention, the system can be further configured to project a skeleton onto the image as shown in step 6450. According to a further embodiment of the invention, this projection can be applied to a two-dimensional plane.

本発明の更なる実施例によれば、モジュール5050を用いる場合は、この投影を三次元平面に適用することができる。   According to a further embodiment of the invention, when using module 5050, this projection can be applied to a three-dimensional plane.

本発明の実施例によれば、この投影は三次元平面及び/又は三次元点群の上にあってもよい。   According to an embodiment of the invention, this projection may be on a 3D plane and / or a 3D point cloud.

本発明の実施例によれば、投影モジュール5450は、骨格を画像上に投影するように構成することができる。   According to an embodiment of the present invention, the projection module 5450 can be configured to project a skeleton onto an image.

本発明の実施例によれば、このシステムは更に、ステップ6500に示すように、分割データを投影した骨格に適合させるように構成することができる。本発明の更なる実施例によれば、この適合プロセスは、分割データの部分の投影した骨格の部分への関連付けを具えていても良い。   According to an embodiment of the present invention, the system can be further configured to fit the segmented data to the projected skeleton, as shown in step 6500. According to a further embodiment of the invention, this adaptation process may comprise associating a portion of the segmented data with a portion of the projected skeleton.

本発明の実施例によれば、分割データの適合ステップが、抽出した分割データを現在の骨格パラメータと関連づけるステップを具えており、現在の骨格パラメータは、抽出した分割データの関連する部分を支持するパラメータである。   According to an embodiment of the present invention, the step of adapting the divided data comprises associating the extracted divided data with the current skeleton parameter, wherein the current skeleton parameter supports the relevant part of the extracted divided data. It is a parameter.

本発明の更なる実施例によれば、この処理の結果が「適合骨格」である。   According to a further embodiment of the invention, the result of this process is a “compatible skeleton”.

本発明の更なる実施例によれば、適合モジュール5500は、分割データを投影した骨格に関連づけるように構成されている。   According to a further embodiment of the invention, the adaptation module 5500 is configured to associate the segmented data with the projected skeleton.

本発明の実施例によれば、このシステムは更にステップ6550に示すように、適合した骨格にスコアをつけて、エラーを検出するように構成されている。本発明の実施例によれば、スコアを付けてエラーを検出するステップは、(1)適合した骨格を検査するステップと、(2)この骨格の適合品質を評価するステップと、(3)骨格予測プロセスあるいは分割データの関連づけを行う間にエラーが生じたかどうかを決定するステップと、を具える。   According to an embodiment of the invention, the system is further configured to score the matched skeleton and detect errors, as shown in step 6550. According to an embodiment of the present invention, the step of scoring and detecting errors comprises: (1) examining a matched skeleton; (2) evaluating the fit quality of the skeleton; and (3) a skeleton. Determining whether an error has occurred during the prediction process or associating the split data.

本発明の実施例によれば、このスコアリング及びエラー検出モジュール5550は、スコアを付けてエラーを検出するように構成されている。   According to an embodiment of the present invention, this scoring and error detection module 5550 is configured to score and detect errors.

本発明の実施例によれば、ステップ6550においてエラーが検出されると、ステップ6600に示すようにシステムが回復フェーズに入る。この回復プロセスは、複数の処理層からなるプロセスである。   According to an embodiment of the present invention, if an error is detected at step 6550, the system enters the recovery phase as shown at step 6600. This recovery process is a process comprising a plurality of processing layers.

本発明の実施例によれば、回復フェーズは、画像の再分割ステップ、3D骨格位置の再予測、拡張エフォートを用いた骨格の再投影及び再適合ステップを具える。本発明の更なる実施例によれば、この回復モジュールは、画像情報が壊れている場合一又はそれ以上のフレームをスキップするよう決定することができる。   According to an embodiment of the present invention, the recovery phase comprises an image re-segmentation step, a 3D skeleton position re-prediction, a skeleton re-projection with extended effort and a re-fit step. According to a further embodiment of the present invention, the recovery module may decide to skip one or more frames if the image information is corrupted.

本発明の実施例によれば、回復を行う間システムは、そのフレームに対象のトラッキングがないことを検出するよう構成されている。本発明の更なる実施例によれば、システムは、対象がそのフレームに戻るまで一またはそれ以上のフレームをスキップするよう構成することができる。   In accordance with an embodiment of the present invention, during recovery, the system is configured to detect that there is no target tracking in that frame. According to a further embodiment of the invention, the system can be configured to skip one or more frames until the subject returns to that frame.

本発明の実施例によれば、回復フレーズは、システムを起動ステップに戻すことができる。   According to an embodiment of the present invention, the recovery phrase can return the system to the startup step.

本発明の実施例によれば、回復モジュール5600は、回復プロセスを実行するように構成されている。   According to an embodiment of the present invention, the recovery module 5600 is configured to perform a recovery process.

本発明の実施例によれば、ステップ6550の間にエラーが検出されなければ、システムは、ステップ6700に示すように、適合骨格の位置に応じて三次元骨格の位置を更新するように構成することができる。本発明の更なる実施例によれば、この更新プロセスは、(1)適合骨格の上に3D骨格を投影するステップと、(2)三次元骨格を適合骨格に関連付けるステップと、(3)Zlensアッセンブリを用いて深度を抽出するステップと、(4)三次元骨格を深度パラメータに関連付けるステップと、(5)3D骨格の位置を更新するステップと、を具える。   According to an embodiment of the present invention, if no error is detected during step 6550, the system is configured to update the position of the three-dimensional skeleton according to the position of the matching skeleton, as shown in step 6700. be able to. According to a further embodiment of the present invention, the update process includes (1) projecting a 3D skeleton onto a conforming skeleton, (2) associating a three-dimensional skeleton with the conforming skeleton, and (3) Zlens. Extracting the depth using the assembly; (4) associating the three-dimensional skeleton with a depth parameter; and (5) updating the position of the 3D skeleton.

本発明の実施例によれば、三次元相関モジュール5700は、三次元骨格の位置を更新するように構成することができる。   According to an embodiment of the present invention, the three-dimensional correlation module 5700 can be configured to update the position of the three-dimensional skeleton.

本発明の実施例によれば、三次元相関モジュール5700と骨格予測モジュール5800は、本出願と同じ譲受人に譲渡された、2005年7月31日に出願されたPCT出願、PCT/IL2005/000813号に記載のアルゴリズムとプロセスのいくつかあるいは全てを用いることができる。   In accordance with an embodiment of the present invention, the three-dimensional correlation module 5700 and the skeleton prediction module 5800 are assigned to the same assignee as the present application, PCT application filed July 31, 2005, PCT / IL2005 / 000813. Some or all of the algorithms and processes described in the issue can be used.

本発明の実施例によれば、(1)三次元相関モジュール5700と、(2)Zlens画像取得アッセンブリ5000と、(3)深度抽出モジュール5050と、の機能性、(4)特に、Zlens装置を用いて取得した画像からの深度の外挿が、本出願と同じ譲受人に譲渡された、2006年10月31日に出願された、PCT/IL2006/001254号と、本出願と同じ譲受人に譲渡された、2005年10月31日に出願された米国特許出願60/731,274号とに関連して最もよく述べられている。   According to embodiments of the present invention, (1) the functionality of the three-dimensional correlation module 5700, (2) the Zlens image acquisition assembly 5000, and (3) the depth extraction module 5050, (4) in particular the Zlens device PCT / IL2006 / 001254, filed on October 31, 2006, to which the extrapolation of depth from images acquired using the same assignee as the present application was filed, and the same assignee as the present application. It is best described in connection with assigned US patent application 60 / 731,274 filed October 31, 2005.

本発明の実施例によれば、上述したシステムは、外部ソースから、深度画像及び/又は3D画像を受け取るように構成することができる。本発明の更なる実施例によれば、深度画像及び/又は三次元画像をシステムから受け取る場合、このシステムは関連モジュール内のそのパラメータを抽出するように構成される。   According to an embodiment of the present invention, the system described above can be configured to receive depth images and / or 3D images from external sources. According to a further embodiment of the invention, when receiving a depth image and / or a three-dimensional image from the system, the system is configured to extract its parameters in the relevant module.

ここに提示したプロセスとディスプレイは、本質的に、特別なコンピュータあるいはその他の装置に関連するものではない。様々な汎用システムを、ここにある教示によってプログラムと共に用いることができるし、また、所望の方法を実行するためにより特殊化した装置を都合よく構成できることがわかる。これらの様々なシステムの所望の構造は、以下の記載から明らかである。更に、本発明の実施例は、特定にプログラム言語について記載されているものではない。様々なプログラム言語を用いてここに述べた発明の教示を実装することができる。当業者には、ここに記載した発明があらゆる種類の無線あるいは有線システムに使用できることが自明である。   The processes and displays presented here are not inherently related to special computers or other devices. It will be appreciated that various general purpose systems can be used with the program in accordance with the teachings herein, and that more specialized devices can be conveniently constructed to perform the desired method. The desired structure for a variety of these systems will appear from the description below. Furthermore, embodiments of the present invention are not specifically described with respect to programming languages. Various programming languages can be used to implement the teachings of the invention described herein. Those skilled in the art will appreciate that the invention described herein can be used in any type of wireless or wired system.

本発明のある特徴を図に示して説明したが、多くの変形、差し替え、変更、及び均等物が当業者に生じる。従って、特許請求の範囲は、本発明の真なる精神に合致する限り、これらの変形や変更を含むことを意図している。   While certain features of the invention have been illustrated and described, many modifications, substitutions, changes, and equivalents will occur to those skilled in the art. Accordingly, the claims are intended to cover these modifications and changes as long as they fall within the true spirit of this invention.

Claims (1)

3D人機械インターフェースにおいて:
二次元画像セットから一又はそれ以上の予測したユーザ身体座標を取り出すように構成された処理ユニットと;
二又はそれ以上の光路を用いて一又はそれ以上の二次元画像データセットを取得するように構成された画像取得アッセンブリであって、前記各光路が、レンズ、ミラー、及びダイヤフラム構造体を具え、各光路が共通の投影平面から二次元光画像情報を回収するように構成されている、画像取得アッセンブリと;
を具えることを特徴とする3D人機械インターフェース。
In the 3D human machine interface:
A processing unit configured to retrieve one or more predicted user body coordinates from the two-dimensional image set;
An image acquisition assembly configured to acquire one or more two-dimensional image data sets using two or more optical paths, each optical path comprising a lens, a mirror, and a diaphragm structure; An image acquisition assembly, wherein each optical path is configured to collect two-dimensional optical image information from a common projection plane;
A 3D human-machine interface characterized by comprising:
JP2012218525A 2012-09-28 2012-09-28 Man-machine interface device system and method Expired - Fee Related JP5620449B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012218525A JP5620449B2 (en) 2012-09-28 2012-09-28 Man-machine interface device system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012218525A JP5620449B2 (en) 2012-09-28 2012-09-28 Man-machine interface device system and method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2010502633A Division JP5147933B2 (en) 2007-04-15 2007-04-15 Man-machine interface device system and method

Publications (2)

Publication Number Publication Date
JP2013047961A true JP2013047961A (en) 2013-03-07
JP5620449B2 JP5620449B2 (en) 2014-11-05

Family

ID=48010894

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012218525A Expired - Fee Related JP5620449B2 (en) 2012-09-28 2012-09-28 Man-machine interface device system and method

Country Status (1)

Country Link
JP (1) JP5620449B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105739701A (en) * 2016-01-31 2016-07-06 盛禾东林(厦门)文创科技有限公司 Module of instantaneous generation 3D (Three-Dimensional) model device control matrix structure, and operating system thereof

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003256850A (en) * 2001-12-27 2003-09-12 Sanyo Electric Co Ltd Movement recognizing device and image processor and its program
JP2006514366A (en) * 2003-02-11 2006-04-27 株式会社ソニー・コンピュータエンタテインメント Real-time motion capture method and apparatus
WO2007010893A1 (en) * 2005-07-19 2007-01-25 Nec Corporation Joint object position and posture estimating device, its method, and program
JP2007066094A (en) * 2005-08-31 2007-03-15 Matsushita Electric Ind Co Ltd Posture estimation device and posture estimation method
US20070098250A1 (en) * 2003-05-01 2007-05-03 Delta Dansk Elektronik, Lys Og Akustik Man-machine interface based on 3-D positions of the human body

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003256850A (en) * 2001-12-27 2003-09-12 Sanyo Electric Co Ltd Movement recognizing device and image processor and its program
JP2006514366A (en) * 2003-02-11 2006-04-27 株式会社ソニー・コンピュータエンタテインメント Real-time motion capture method and apparatus
US20070098250A1 (en) * 2003-05-01 2007-05-03 Delta Dansk Elektronik, Lys Og Akustik Man-machine interface based on 3-D positions of the human body
WO2007010893A1 (en) * 2005-07-19 2007-01-25 Nec Corporation Joint object position and posture estimating device, its method, and program
JP2007066094A (en) * 2005-08-31 2007-03-15 Matsushita Electric Ind Co Ltd Posture estimation device and posture estimation method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105739701A (en) * 2016-01-31 2016-07-06 盛禾东林(厦门)文创科技有限公司 Module of instantaneous generation 3D (Three-Dimensional) model device control matrix structure, and operating system thereof

Also Published As

Publication number Publication date
JP5620449B2 (en) 2014-11-05

Similar Documents

Publication Publication Date Title
JP5147933B2 (en) Man-machine interface device system and method
JP5599400B2 (en) Method system and software for providing an image sensor based human machine interface
US8432390B2 (en) Apparatus system and method for human-machine interface
CN105518575B (en) With the two handed input of natural user interface
EP3639117B1 (en) Hover-based user-interactions with virtual objects within immersive environments
JP2014501413A (en) User interface, apparatus and method for gesture recognition
US20130159940A1 (en) Gesture-Controlled Interactive Information Board
Shim et al. Gesture-based interactive augmented reality content authoring system using HMD
Medeiros et al. A tablet-based 3d interaction tool for virtual engineering environments
CN108776544A (en) Exchange method and device, storage medium, electronic equipment in augmented reality
CN111190826A (en) Testing method and device for virtual reality immersive tracking environment, storage medium and equipment
JP5620449B2 (en) Man-machine interface device system and method
CN108885556A (en) Control numeral input
US8681100B2 (en) Apparatus system and method for human-machine-interface
CN106681506A (en) Interaction method of non-VR application in terminal equipment and terminal equipment
Liu et al. COMTIS: Customizable touchless interaction system for large screen visualization
CN110604918B (en) Interface element adjustment method and device, storage medium and electronic equipment
CN108499102B (en) Information interface display method and device, storage medium and electronic equipment
CN112755510A (en) Mobile terminal cloud game control method, system and computer readable storage medium
CN103221912A (en) Entering a command
CN117193540B (en) Control method and system of virtual keyboard
CN109741250A (en) Image processing method and device, storage medium and electronic equipment
Lee et al. iSphere: a free-hand 3D modeling interface
US20230196725A1 (en) Image annotation system and method
Wesson et al. Evaluating organic 3D sculpting using natural user interfaces with the Kinect

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140918

R150 Certificate of patent or registration of utility model

Ref document number: 5620449

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees