JP2023506990A - Systems and methods for displaying video data within a target environment - Google Patents

Systems and methods for displaying video data within a target environment Download PDF

Info

Publication number
JP2023506990A
JP2023506990A JP2022537577A JP2022537577A JP2023506990A JP 2023506990 A JP2023506990 A JP 2023506990A JP 2022537577 A JP2022537577 A JP 2022537577A JP 2022537577 A JP2022537577 A JP 2022537577A JP 2023506990 A JP2023506990 A JP 2023506990A
Authority
JP
Japan
Prior art keywords
video
output information
image
display surface
output unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022537577A
Other languages
Japanese (ja)
Inventor
アレン ジョー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Everseen Ltd
Original Assignee
Everseen Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Everseen Ltd filed Critical Everseen Ltd
Publication of JP2023506990A publication Critical patent/JP2023506990A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0252Targeted advertisements based on events or environment, e.g. weather or festivals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • G03B17/54Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/10Projectors with built-in or built-on screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42202Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] environmental sensors, e.g. for detecting temperature, luminosity, pressure, earthquakes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Finance (AREA)
  • Strategic Management (AREA)
  • Environmental & Geological Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Ecology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Emergency Management (AREA)
  • Environmental Sciences (AREA)
  • Remote Sensing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

ターゲット環境内のアクティビティに基づいて、表示面上に出力情報を自動的に表示するためのシステムは、ターゲット環境のデータをリアルタイムでキャプチャするための画像キャプチャデバイスと、データを処理して、出力情報を表示するためのロケーションを決定し、出力情報のコンテンツを決定するための処理ユニットと、表示面上に出力情報を表示するためのビデオ出力ユニットとを含む。ビデオ出力ユニットは、360°回転するように構成され、ビデオ出力ユニットの回転角度は、処理ユニットによって制御される。画像キャプチャデバイスは、表示面上に表示される出力情報をリアルタイムでさらにキャプチャし、フィードバックデータを処理ユニットにリアルタイムで提供して、処理ユニットが、焦点、方向、およびビデオ出力ユニットに表示される出力情報を制御することを可能にする。A system for automatically displaying output information on a display surface based on activity within the target environment includes an image capture device for capturing data of the target environment in real time and processing the data to produce output information. and a processing unit for determining the content of the output information and a video output unit for displaying the output information on the display surface. The video output unit is configured to rotate 360°, and the rotation angle of the video output unit is controlled by the processing unit. The image capture device further captures the output information displayed on the display surface in real time and provides feedback data to the processing unit in real time so that the processing unit can determine the focus, orientation, and output displayed on the video output unit. Allows you to control information.

Description

本開示は、一般に、ターゲット環境内のビデオデータを表示するためのシステムおよび方法に関し、より詳細には、リアルタイムのインタラクティブな視覚的プロンプトおよびオーディオプロンプトを使用して、閉ループ人工知能(AI)ドリブンプロセスに基づいて、ビデオデータを表示することに関する。 FIELD OF THE DISCLOSURE This disclosure relates generally to systems and methods for displaying video data in a target environment, and more particularly to closed-loop artificial intelligence (AI) driven processes using real-time interactive visual and audio prompts. for displaying video data based on.

企業は、典型的には、公共の場所、例えば、ショッピングセンター、電車の駅/バス停等において表示画面上で宣伝することによって、新しく売り出される製品を宣伝することに多額の金銭を費やす。企業の利益および投資収益率を最大化するために、企業は、最大数の顧客が新製品を購入することを望む。しかしながら、宣伝用に使用される既存の表示画面は、予めプログラムされたデータしか表示しない。特に、既存の表示画面は、ターゲットとされている顧客に基づいて宣伝を表示しない。 Businesses typically spend a large amount of money advertising their newly launched products by advertising on display screens in public places, such as shopping centers, train stations/bus stops, and the like. In order to maximize the company's profit and return on investment, the company wants the maximum number of customers to purchase the new product. However, existing display screens used for advertising only display pre-programmed data. In particular, existing display screens do not display promotions based on targeted customers.

さらに、セルフチェックアウト(SCO:Self Check-Out)店舗において、レジ係は、顧客に対する請求を取り扱うために請求カウンタに物理的に存在しない。これは盗難率の増加をもたらした。したがって、SCO店舗においては、システムが、盗難の観察に基づいてオーディオ/ビデオ警報を提供する必要がある。同様に、顧客がSCOシステムを適切に使用することができない場合、顧客が対応および支援を必要としている可能性があることをシステムが店舗の管理者に知らせる必要がある。 Additionally, in Self Check-Out (SCO) stores, cashiers are not physically present at the billing counter to handle billing for customers. This has resulted in increased theft rates. Therefore, in SCO stores, there is a need for a system to provide audio/video alerts based on theft observations. Similarly, if a customer is unable to use the SCO system properly, the system should notify store management that the customer may need attention and assistance.

さらに、自然災害(例えば、地震、火災、津波等)の場合には、公共の場所にいる人々に災害について知らせ、より安全な場所への案内を人々に提供するために、警報が必要となり得る。緊急事態、例えば、陸軍/海軍基地に対する攻撃または公共の場所におけるテロリスト攻撃などにおいて、現行の安全手順は、攻撃者の位置を特定すること、またはさもなければ当局者が攻撃者を捕らえるのに役立つビデオ/オーディオ命令を提供することを支援しない。 Additionally, in the event of natural disasters (e.g. earthquakes, fires, tsunamis, etc.), warnings may be necessary to inform people in public places of the disaster and to provide them with directions to safer places. . In an emergency situation, such as an attack on an army/naval base or a terrorist attack in a public place, current security procedures help to locate the attacker or otherwise help officials to apprehend the attacker. Does not support providing video/audio instructions.

さらに、学生を指導/訓練するための現行のシステムは、学生の環境を観察し、それに応じて指導/訓練を適合させるものではない。例えば、現行の訓練システムは、医学生または獣医学生を訓練するための予め確立された手順を実行し、これらの学生の環境を考慮に入れない。 Furthermore, current systems for teaching/training students do not observe the student's environment and adapt teaching/training accordingly. For example, current training systems follow pre-established procedures for training medical or veterinary students and do not take into account the environment of these students.

したがって、上記に鑑みて、1人または複数のターゲットユーザの環境を考慮に入れ、それに応じて、自動化されたオーディオ/ビデオ出力を提供するシステムに対する必要性が存在する。 Therefore, in view of the above, a need exists for a system that takes into account the environment of one or more target users and provides automated audio/video output accordingly.

本開示の一態様において、ターゲット環境内の1つまたは複数のアクティビティに基づいて、表示面上に出力情報を自動的に表示するためのシステムが提供される。本システムは、1つまたは複数のアクティビティを認識するために、ターゲット環境の画像およびビデオデータをリアルタイムでキャプチャするように構成された画像キャプチャデバイスを含む。本システムは、画像およびビデオデータを処理して、出力情報を表示するためのロケーションを決定し、出力情報のコンテンツを決定するように構成された処理ユニットを含み得る。本システムは、表示面上に出力情報を表示するように構成されたビデオ出力ユニットであって、ビデオ出力ユニットは、360°回転するように構成され、ビデオ出力ユニットの回転角度は、処理ユニットによって制御される、ビデオ出力ユニットをさらに含み得る。画像キャプチャデバイスは、表示面上に表示される出力情報をリアルタイムでキャプチャし、フィードバックデータを処理ユニットにリアルタイムで提供して、処理ユニットが、焦点、方向、およびビデオ出力ユニット上に表示される出力情報を制御することを可能にするようにさらに構成される。 In one aspect of the present disclosure, a system is provided for automatically displaying output information on a display surface based on one or more activities within a target environment. The system includes an image capture device configured to capture image and video data of the target environment in real time to perceive one or more activities. The system may include a processing unit configured to process image and video data to determine locations for displaying output information and to determine content of output information. The system comprises a video output unit configured to display output information on a display surface, the video output unit configured to rotate 360°, the angle of rotation of the video output unit being determined by the processing unit It may further include a controlled video output unit. The image capture device captures output information displayed on the display surface in real time and provides feedback data to the processing unit in real time so that the processing unit can determine the focus, orientation, and output displayed on the video output unit. It is further configured to allow information to be controlled.

本開示の別の態様において、ターゲット環境内の1つまたは複数のアクティビティに基づいて、表示面上に出力情報を自動的に表示するための方法が提供される。本方法は、1つまたは複数のアクティビティを認識するために、ターゲット環境の画像およびビデオデータをリアルタイムでキャプチャすることを含む。本方法は、画像およびビデオデータを処理して、出力情報を表示するためのロケーションを決定し、出力情報のコンテンツを決定することをさらに含み得る。本方法は、ビデオ出力ユニットによって、表示面上に出力情報を表示することであって、ビデオ出力ユニットは、360°回転するように構成される、ことをさらに含み得る。本方法は、キャプチャされた画像およびビデオデータに基づいて、ビデオ出力ユニットの回転角度を制御することをさらに含み得る。本方法は、表示面上に表示される出力情報をリアルタイムでキャプチャすることと、フィードバックデータを生成して、焦点、方向、およびビデオ出力ユニット上に表示される出力情報を制御することとをさらに含み得る。 In another aspect of the present disclosure, a method is provided for automatically displaying output information on a display surface based on one or more activities within a target environment. The method includes capturing image and video data of the target environment in real time to recognize one or more activities. The method may further include processing the image and video data to determine locations for displaying the output information and determining content of the output information. The method may further include displaying the output information on the display surface with the video output unit, wherein the video output unit is configured to rotate 360 degrees. The method may further include controlling the rotation angle of the video output unit based on the captured image and video data. The method further comprises capturing the output information displayed on the display surface in real time and generating feedback data to control the focus, orientation, and output information displayed on the video output unit. can contain.

本開示のまた別の態様において、ターゲット環境内の1つまたは複数のアクティビティに基づいて、表示面上に出力情報を自動的に表示するためのコンピュータプログラム可能な製品が提供される。コンピュータプログラム可能な製品は、命令のセットを備え、命令のセットは、プロセッサによって実行された場合、プロセッサに、1つまたは複数のアクティビティを認識するために、ターゲット環境の画像およびビデオデータをリアルタイムでキャプチャすることと、画像およびビデオデータを処理して、出力情報を表示するためのロケーションを決定し、出力情報のコンテンツを決定することと、処理されたデータに基づいて、出力情報を生成することと、ビデオ出力ユニットによって、表示面上に出力情報を表示することとを行わせる。ビデオ出力ユニットは、360°回転するように構成され、ビデオ出力ユニットの回転角度は、キャプチャされた画像およびビデオデータに基づいて制御される。さらに、表示面上にリアルタイムで表示される出力情報がキャプチャされ、フィードバックデータが生成されて、焦点、方向、およびビデオ出力ユニット上に表示される出力情報が制御される。 In yet another aspect of the present disclosure, a computer programmable product is provided for automatically displaying output information on a display surface based on one or more activities within a target environment. A computer programmable product comprises a set of instructions which, when executed by a processor, causes the processor to generate image and video data of a target environment in real time to perceive one or more activities. Capturing and processing image and video data to determine locations for displaying output information, determining content of the output information, and generating output information based on the processed data. and displaying the output information on a display surface by means of a video output unit. The video output unit is configured to rotate 360 degrees, and the rotation angle of the video output unit is controlled based on the captured image and video data. Additionally, the output information displayed in real time on the display surface is captured and feedback data is generated to control the focus, orientation, and output information displayed on the video output unit.

本開示の様々な実施形態は、人間の挙動をキャプチャし、人間とインタラクションおよび通信して、観察されているプロセスおよび環境にとって適当な手法で人間に指示または通知するシステムを提供する。本システムは、視覚センサ入力、オーディオセンサ入力および他のセンサ入力を取り込み、視覚的出力およびオーディオ出力を作成して、バックグラウンドで動作するソフトウェアインテリジェンスによって管理される閉ループインタラクションを形成することができる。本システムは、標準および規定されたプロセスに対する最適な性能の自動保証を可能にする、インテリジェントなインストラクター/コーチ/管理者としてさらに動作し得る。本システムは、入力用のカメラと、出力部用であり、AIソフトウェアによって制御されるプロジェクターとを使用して、ユーザとの双方向通信を有する機会を作成する。 Various embodiments of the present disclosure provide a system that captures human behavior, interacts and communicates with humans, and instructs or informs humans in a manner appropriate to the process and environment being observed. The system can take visual, audio, and other sensor inputs, create visual and audio outputs, and form closed-loop interactions managed by software intelligence running in the background. The system can further act as an intelligent instructor/coach/manager, enabling automatic assurance of optimal performance against standards and prescribed processes. The system uses a camera for input and a projector for output, controlled by AI software, to create the opportunity to have two-way communication with the user.

本システムは、ユーザが指導され、または訓練される必要があるシナリオにおいて有用である。カメラは、環境的なプロセスを観察し、プロジェクターを使用して、ユーザに所望の結果に応じて動作し、訓練の記録を残すように案内し得る。別の例は、医学生または獣医学生が特定の手順を実行するように訓練することであろう。閉ループフィードバックは、AIソフトウェアがリアルタイム制御され、プロセスおよびアクティビティが発生した際に、それらを変更または修正することができることを保証する。最適なプロセスまたは挙動の結果を指導し、制御し、およびまたは確実にするために、リアルタイムのインタラクティブな視覚的プロンプト/ナッジ(nudges)およびオーディオプロンプト/ナッジを使用する閉ループAIドリブンプロセス制御。 The system is useful in scenarios where users need to be instructed or trained. A camera may observe environmental processes and use a projector to guide the user to act according to the desired result and keep a record of the training. Another example would be training medical or veterinary students to perform a particular procedure. Closed-loop feedback ensures that AI software is under real-time control and can change or modify processes and activities as they occur. Closed-loop AI-driven process control using real-time interactive visual and audio prompts/nudges to guide, control and/or ensure optimal process or behavioral outcomes.

本開示の特徴は、添付の特許請求の範囲によって定義されるような本開示の範囲から逸脱することなく、様々な組合せにおいて組み合わされることを許容することが認識されるであろう。 It will be appreciated that the features of the disclosure are permissible to be combined in various combinations without departing from the scope of the disclosure as defined by the appended claims.

上記の概要、および例示的な実施形態の以下の詳細な説明は、添付の図面と共に読まれる場合に、より良く理解される。本開示を例示する目的のために、本開示の例示的な構造が、図面に示される。しかしながら、本開示は、本明細書において開示される特定の方法および手段に限定されない。さらに、当業者は、図面が縮尺通りではないことを理解するであろう。可能な限り、同様の要素は、同一の番号によって示されている。 The above summary, and the following detailed description of illustrative embodiments, are better understood when read in conjunction with the accompanying drawings. For purposes of illustrating the present disclosure, exemplary structures of the present disclosure are shown in the drawings. However, the disclosure is not limited to the specific methods and instrumentalities disclosed herein. Additionally, those skilled in the art will appreciate that the drawings are not to scale. Wherever possible, similar elements are denoted by identical numbers.

本開示の一実施形態による、ターゲット環境内のアクティビティに基づいて、ビデオデータを表示するための例示的なシステムの図である。1 is an illustration of an example system for displaying video data based on activity within a target environment in accordance with an embodiment of the present disclosure; FIG. 本開示の一実施形態による、画像キャプチャデバイスによってキャプチャされた画像フレームを処理するための例示的な動作の図である。FIG. 4 is a diagram of example operations for processing image frames captured by an image capture device, in accordance with an embodiment of the present disclosure; 本開示の一実施形態による、処理ユニットによって生成される予め定義された画像/ビデオデータを表示面上に投影するための例示的なビデオの出力ユニットの図である。[0014] Fig. 4 is a diagram of an exemplary video output unit for projecting predefined image/video data generated by a processing unit onto a display surface, in accordance with an embodiment of the present disclosure; 本開示の一実施形態による、ミラー平面内の垂直軸および水平軸を中心に電動ミラーを回転させるための例示的な機構の図である。FIG. 10 is an illustration of an exemplary mechanism for rotating a motorized mirror about vertical and horizontal axes in the plane of the mirror, in accordance with an embodiment of the present disclosure; 本開示の一実施形態による、2つの電気的に制御されるレバーを含む例示的なモータを例示する図である。[0014] Fig. 4 illustrates an exemplary motor including two electrically controlled levers, in accordance with one embodiment of the present disclosure; ターゲット環境内の1つまたは複数のアクティビティに基づいて、表示面上にビデオデータを自動的に表示するための方法を例示する例示的なフローチャートである。4 is an exemplary flow chart illustrating a method for automatically displaying video data on a display surface based on one or more activities within a target environment;

添付の図面において、下線が引かれた数字は、下線が引かれた数字が配置されるアイテム、または下線が引かれた数字が隣接するアイテムを表すために採用される。下線が引かれていない数字は、下線が引かれていない数字をアイテムに結びつける線によって識別されるアイテムに関連する。数字に下線が引かれておらず、関連付けられた矢印を伴う場合、その下線が引かれていない数字は、矢印が指す一般的なアイテムを識別するために使用される。 In the accompanying drawings, underlined numbers are employed to represent the item in which the underlined number is placed or the item to which the underlined number is adjacent. Non-underlined numbers relate to the item identified by the line connecting the non-underlined number to the item. If a number is not underlined and has an associated arrow, the non-underlined number is used to identify the general item to which the arrow points.

以下の詳細な説明は、本開示の実施形態およびそれらが実装され得る手法を例示する。本開示を実施する最良の形態が開示されているが、当業者は、本開示を実施または実践するための他の実施形態も可能であることを認識するであろう。 The following detailed description illustrates embodiments of the disclosure and the manner in which they may be implemented. While the best mode of carrying out the disclosure has been disclosed, those skilled in the art will recognize that other embodiments for making or practicing the disclosure are possible.

図1は、本開示の一実施形態による、ターゲット環境101内のアクティビティに基づいて、ビデオデータを表示するための例示的なシステム100の図である。本開示の一実施形態において、ターゲット環境101は、セルフチェックアウト店舗(SCO)に関係し得、図示されていないが、エンティティ、例えば、製品、コンベヤ、産業用ロボットなどと、アクティビティ、例えば、オペレータが、現場に入り、または現場を出ること、アイテムを選び、投下し、移動させ、重み付けし、またはスキャンすること、タッチスクリーンディスプレイを操作すること、およびキャッシュ、モバイル電子商取引またはクレジットカードを通じて支払うことなどを含み得る。しかしながら、ターゲット環境101が一般工業地域、軍事/海軍基地、訓練ホール、セキュリティ検査エリア、ショッピングセンター、およびレストランに関係してもよいことは、当業者には明らかであろう。上記に特定されたターゲット環境101に加えて、システム100は、リテールオートメーション、顧客アップセリング、従業員指導、従業員訓練、ロジスティクスオートメーション(品物の輸入/輸出)、EG外科訓練などの医学的指示、視覚的なキューを用いた外科専門家訓練、火災、地震、および銃撃の場合における緊急命令において有用となり得る。 FIG. 1 is an illustration of an exemplary system 100 for displaying video data based on activity within a target environment 101, according to one embodiment of the present disclosure. In one embodiment of the present disclosure, the target environment 101 may relate to a self-checkout store (SCO), not shown, but with entities such as products, conveyors, industrial robots, etc., and activities such as operators enter or leave the scene, pick, drop, move, weigh or scan items, operate touch screen displays and pay via cash, mobile e-commerce or credit card and so on. However, it will be apparent to those skilled in the art that the target environment 101 may relate to general industrial areas, military/naval bases, training halls, security inspection areas, shopping centers, and restaurants. In addition to the above-identified target environments 101, the system 100 can also be used for retail automation, customer upselling, employee mentoring, employee training, logistics automation (import/export of goods), medical instructions such as EG surgical training, It can be useful in surgical specialist training with visual cues, emergency orders in the event of fire, earthquake, and gunfire.

システム100は、通信ネットワークを通じて互いに通信可能に結合された、処理ユニット102、画像キャプチャデバイス104、オーディオ記録デバイス106、センサユニット108、およびビデオ出力ユニット110を含む。通信ネットワークは、本開示の範囲を限定することなく、任意の適切な有線ネットワーク、無線ネットワーク、これらの組合せまたは任意の他の従来のネットワークとしてもよい。いくつかの例は、ローカルエリアネットワーク(LAN)、無線LAN接続、インターネット接続、二地点間接続、または他のネットワーク接続およびこれらの組合せを含んでもよい。一例において、ネットワークは、モバイル通信ネットワーク、例えば、2G、3G、4G、または5Gのモバイル通信ネットワークを含んでもよい。通信ネットワークは、1つまたは複数の他のネットワークに結合され、それによって、より多数のデバイス間の結合を提供し得る。そのようなことは、例えば、ネットワークがインターネットを通じて共に結合される場合にあり得る。 System 100 includes a processing unit 102, an image capture device 104, an audio recording device 106, a sensor unit 108, and a video output unit 110 communicatively coupled together through a communication network. The communication network may be any suitable wired network, wireless network, a combination thereof or any other conventional network without limiting the scope of this disclosure. Some examples may include local area networks (LANs), wireless LAN connections, Internet connections, point-to-point connections, or other network connections and combinations thereof. In one example, the network may include a mobile communication network, such as a 2G, 3G, 4G, or 5G mobile communication network. A communication network may be coupled to one or more other networks, thereby providing coupling between a greater number of devices. Such may be the case, for example, when networks are coupled together through the Internet.

画像キャプチャデバイス104は、画像フレーム内の人間、動物、およびモノなどの様々なエンティティのアクションを認識するために、ターゲット環境101の1つまたは複数の画像およびビデオをリアルタイムでキャプチャし、キャプチャされたデータを処理ユニット102へ送信するように構成される。画像キャプチャデバイス104の例は、360°カメラ、閉回路テレビジョン(CCTV:Closed-Circuit Television)カメラ、高解像度(HD)カメラ、非HDカメラ、携帯型カメラ、交通カメラ、警察車両カメラ、および無人航空機(UAV:unmanned aerial vehicle)上のカメラを含むが、これらに限定されない。 The image capture device 104 captures one or more images and videos of the target environment 101 in real time to recognize the actions of various entities such as humans, animals, and things in the image frames, and the captured It is arranged to transmit data to the processing unit 102 . Examples of image capture devices 104 are 360° cameras, Closed-Circuit Television (CCTV) cameras, high definition (HD) cameras, non-HD cameras, handheld cameras, traffic cameras, police vehicle cameras, and unmanned Including, but not limited to, cameras on unmanned aerial vehicles (UAVs).

オーディオ記録デバイス106は、ターゲット環境101からのオーディオデータを記録し、記録されたオーディオデータを処理ユニット102へ送信するように構成される。オーディオ記録デバイス106の例は、ダイナミックマイクロフォン、コンデンサーマイクロフォン、圧電マイクロフォンまたはリボンマイクロフォンを含むが、これらに限定されない。 Audio recording device 106 is configured to record audio data from target environment 101 and transmit the recorded audio data to processing unit 102 . Examples of audio recording device 106 include, but are not limited to, dynamic microphones, condenser microphones, piezoelectric microphones, or ribbon microphones.

センサユニット108は、ターゲット環境101内のイベントまたは変化を検出し、検出された情報を処理ユニット102へ送信するように構成される。本開示の1つの実施形態において、ターゲット環境101は、陸軍基地/海軍基地であり、センサユニット108は、基地に対する攻撃を検出するために基地に設置された1つまたは複数のレーダを含み得る。別の実施形態において、ターゲット環境101は、1つまたは複数の住宅/商業ビルであり、センサユニット108は、ビルにおける、またはビルの近くの自然災害の発生を検出し、検出された情報を処理ユニット102へ送信するためにビルに設置されたセンサを含んでもよい。また別の実施形態において、ターゲット環境101は、空港、ショッピング(もしくは他の)モール、または他の同様のロケーションのセキュリティチェックポイントエリアであり、センサユニット108は、その箇所における人々の手荷物、バッグ、衣類または他の態様における疑わしいアイテムの存在を検出し、検出された情報を処理ユニット102へ送信するために設置されるX線デバイスを含んでもよい。 The sensor unit 108 is configured to detect events or changes within the target environment 101 and transmit detected information to the processing unit 102 . In one embodiment of the present disclosure, target environment 101 is an army/naval base and sensor unit 108 may include one or more radars installed at the base to detect attacks on the base. In another embodiment, the target environment 101 is one or more residential/commercial buildings, and the sensor units 108 detect the occurrence of a natural disaster at or near the building and process the detected information. It may also include sensors installed in the building for transmission to unit 102 . In yet another embodiment, the target environment 101 is a security checkpoint area of an airport, shopping (or other) mall, or other similar location, and the sensor unit 108 detects people's luggage, bags, It may also include an X-ray device installed to detect the presence of suspect items in clothing or other aspects and transmit detected information to processing unit 102 .

処理ユニット102は、画像キャプチャデバイス104、オーディオ記録デバイス106、センサユニット108、およびビデオ出力ユニット110の動作を制御する中央制御ユニットである。処理ユニット102は、画像キャプチャデバイス104、オーディオ記録デバイス106、およびセンサユニット108から受け取られる入力データを処理し、処理されたデータに基づいて出力情報を生成し、ビデオ出力ユニット110を通じて表示面112上に出力情報を表示するように構成される。本開示の一実施形態において、出力情報は、ターゲット環境101についての警報、通知、宣伝、命令、および訓練ビデオを含むが、これらに限定されない、予め定義されたビデオ出力およびオーディオ出力を含み得る。本開示の一実施形態において、ビデオ出力ユニット110は、プロジェクターを含んでもよく、表示面112は、プロジェクターからの投影画像を表示するための白色の投影画面、灰色の投影画面、または白色の壁を含み得る。本開示の一実施形態において、処理ユニット102は、ビデオ出力ユニット110の焦点および方向を制御し、ビデオ出力ユニット110によって表示されるコンテンツも制御するように構成される。本開示の別の実施形態において、ビデオ出力ユニット110は、非投影ディスプレイ、例えば、発光ダイオード(LED)、液晶ディスプレイ(LCD)、および有機発光ダイオード(OLED)などを含んでも良い。 Processing unit 102 is a central control unit that controls the operation of image capture device 104 , audio recording device 106 , sensor unit 108 and video output unit 110 . Processing unit 102 processes input data received from image capture device 104 , audio recording device 106 , and sensor unit 108 , generates output information based on the processed data, and outputs it to display surface 112 through video output unit 110 . configured to display the output information in the In one embodiment of the present disclosure, the output information may include predefined video and audio outputs including, but not limited to, alerts, notifications, advertisements, instructions, and training videos for the target environment 101. In one embodiment of the present disclosure, the video output unit 110 may include a projector, and the display surface 112 may be a white projection screen, a gray projection screen, or a white wall for displaying projected images from the projector. can contain. In one embodiment of the present disclosure, processing unit 102 is configured to control the focus and direction of video output unit 110 and also control the content displayed by video output unit 110 . In another embodiment of the present disclosure, video output unit 110 may include non-projection displays such as light emitting diodes (LEDs), liquid crystal displays (LCDs), and organic light emitting diodes (OLEDs).

本開示の一実施形態において、画像キャプチャデバイス104は、表示面112に表示される画像/ビデオデータをキャプチャし、オーディオ記録デバイス106は、表示面112上に再生されているオーディオデータを記録する。処理ユニット102は、フィードバックデータを使用して、表示面112上に表示される出力情報の品質を改善して、ユーザフィードバックを強化する。 In one embodiment of the present disclosure, image capture device 104 captures image/video data displayed on display surface 112 and audio recording device 106 records audio data being played on display surface 112 . Processing unit 102 uses the feedback data to improve the quality of the output information displayed on display surface 112 to enhance user feedback.

本開示の一実施形態において、処理ユニット102は、ターゲット環境101内の正確なロケーションへ視覚情報を案内するための能力を有する人工知能(AI)プラットフォームを含む。処理ユニット102は、ローカルコンピューティングデバイスにおいて、またはリモート処理サーバにおいて局所的に実装され得る。本開示の文脈において、処理ユニット102は、AIベースのプロセッサ、ビデオ/画像データを処理するためのグラフィック処理ユニット(GPU)、1つまたは複数の命令を記憶するためのメモリを含み得る。本開示の全体にわたって、「AIベースのプロセッサ」という用語は、対応するメモリ内に記憶された命令に応答し、命令を処理するように動作可能な計算要素に関連する。任意選択で、AIベースのプロセッサは、マイクロプロセッサ、マイクロコントローラ、複合命令セットコンピューティング(CISC:complex instruction set computing)マイクロプロセッサ、縮小命令セット(RISC:reduced instruction set)マイクロプロセッサ、超長命令語(VLIM:very long instruction word)マイクロプロセッサ、または任意の他のタイプの処理回路を含むが、これらに限定されない。処理ユニット102は、対応するAIソフトウェアによって作成される動的な出力を用いてプログラムおよび拡張される、予め定義された出力の初期セットを含み得る。 In one embodiment of the present disclosure, processing unit 102 includes an artificial intelligence (AI) platform capable of guiding visual information to precise locations within target environment 101 . Processing unit 102 may be implemented locally at a local computing device or at a remote processing server. In the context of this disclosure, processing unit 102 may include an AI-based processor, a graphics processing unit (GPU) for processing video/image data, memory for storing one or more instructions. Throughout this disclosure, the term "AI-based processor" relates to a computational element operable to respond to and process instructions stored within a corresponding memory. Optionally, the AI-based processor comprises a microprocessor, microcontroller, complex instruction set computing (CISC) microprocessor, reduced instruction set (RISC) microprocessor, very long instruction word ( VLIM (very long instruction word) including, but not limited to, a microprocessor, or any other type of processing circuitry. Processing unit 102 may include an initial set of predefined outputs that are programmed and extended with dynamic outputs created by corresponding AI software.

図2は、本開示の一実施形態による、(図1に示されるような)画像キャプチャデバイス104によってキャプチャされた画像フレーム202を処理するための例示的な動作の図である。画像フレーム202は、画像キャプチャデバイス104の360°レンズによってキャプチャされた、円形の形状である。(図1に示されるような)処理ユニット102は、画像フレーム202を受け取り、画像フレーム202の平滑化された表現を作成して、平滑化された画像204を生成する。本開示の一実施形態において、(図1に示されるような)処理ユニット102は、平滑化された画像204を作成する間にフィッシュアイ歪みを補償し、平滑化された画像204のグリッドビュー画像206を生成する。 FIG. 2 is a diagram of exemplary operations for processing image frames 202 captured by image capture device 104 (as shown in FIG. 1), according to one embodiment of the present disclosure. Image frame 202 is a circular shape captured by the 360° lens of image capture device 104 . Processing unit 102 (as shown in FIG. 1) receives image frame 202 and creates a smoothed representation of image frame 202 to produce smoothed image 204 . In one embodiment of the present disclosure, the processing unit 102 (as shown in FIG. 1) compensates for fisheye distortion while creating the smoothed image 204 and grid view images of the smoothed image 204. 206 is generated.

グリッドビュー画像206は、(図1に示されるような)ターゲット環境101を参照したライブグリッドを含む。1つの実装において、グリッド特性(すなわち、行の数字および列の数字)は、ユーザによって設定可能である。別の実装において、グリッド特性は、動的に可変である。この場合において、グリッド特性は、画像キャプチャデバイス104の視界において検出された動きを分析し、シーン内の各個別の要素の位置がグリッド参照を使用して区別され得ることを確実にする処理ユニット102によって決定される。次いで、グリッド参照は、ターゲット環境101内で発生しているアクティビティと、そのアクティビティのロケーションとについて、処理ユニット102に通知するために使用される。 Grid view image 206 includes a live grid with reference to target environment 101 (as shown in FIG. 1). In one implementation, the grid properties (ie number of rows and number of columns) are user configurable. In another implementation, grid properties are dynamically variable. In this case, the grid property is the processing unit 102 that analyzes the motion detected in the field of view of the image capture device 104 and ensures that the position of each individual element within the scene can be distinguished using the grid reference. determined by The grid reference is then used to inform the processing unit 102 about the activity occurring within the target environment 101 and the location of that activity.

一例において、ターゲット環境101がショッピングセンターである場合、画像204は、人々で通常混雑しているロケーションを示してもよい。処理ユニット102は、この情報を使用して、対応するロケーションにおいて予め定義されたビデオ宣伝を表示して、最大数の人々の注意を宣伝に向け得る。別の例において、ターゲット環境101が、空港、ショッピング(もしくは他の)モール、または別の同様のロケーションのセキュリティ検査エリアである場合、画像204は、1つまたは複数の禁止されている疑いのある品物またはアイテムの存在を明らかにするX線画像に関係し得る。処理ユニット102は、この情報を使用して、関連するセキュリティ管理者に対してオーディオ/ビデオ警報を生成し得る。ビデオ/画像データの表示面上への投影は、図3Aを参照して詳細に解説されている。 In one example, if target environment 101 is a shopping center, image 204 may show a location that is typically crowded with people. The processing unit 102 may use this information to display a predefined video promotion at the corresponding location to draw the maximum number of people's attention to the promotion. In another example, if the target environment 101 is a security screening area of an airport, shopping (or other) mall, or another similar location, the images 204 may include one or more suspected prohibited It may relate to an X-ray image that reveals the presence of an article or item. Processing unit 102 may use this information to generate an audio/video alert to the relevant security administrator. Projecting video/image data onto a display surface is discussed in detail with reference to FIG. 3A.

図3Aは、本開示の一実施形態による、(処理ユニット102と同様の)処理ユニット301によって生成された予め定義された画像/ビデオデータを(表示面112と同様の)表示面310上に投影するための(ビデオ出力ユニット110と同様の)例示的なビデオ出力ユニット300の図である。 FIG. 3A illustrates projection of predefined image/video data generated by processing unit 301 (similar to processing unit 102) onto display surface 310 (similar to display surface 112), according to one embodiment of the present disclosure. 3A is a diagram of an exemplary video output unit 300 (similar to video output unit 110) for

ビデオ出力ユニット300は、光源302、レンズ304、電動焦点システム306、および電動ミラー308を含む。光源302の例は、レーザ、ランプまたはLED(発光ダイオード)を含み得るが、これらに限定されない。レンズ304は、光学およびデジタルズームならびに合焦能力を有するレンズを含み得る。電動焦点システム306は、レンズ304によって反射される、光源302からの光を、電動ミラー308の方へ案内するように構成される。電動ミラー308は、垂直軸および水平軸の各々において移動されて、予め定義された画像/ビデオを異なる傾き/位置で表示面310上に投影するように構成される。本開示の一実施形態において、電動ミラー308は、予め定義された画像/ビデオを最大で90°回転させて、予め定義された画像を表示面310上の予め定義されたロケーションにおいて表示するように構成される。電動ミラー308を回転させるための機構は、図3Bを参照して詳細に解説される。 Video output unit 300 includes light source 302 , lens 304 , motorized focus system 306 , and motorized mirror 308 . Examples of light sources 302 may include, but are not limited to, lasers, lamps or LEDs (light emitting diodes). Lens 304 may include lenses with optical and digital zoom and focus capabilities. Motorized focusing system 306 is configured to direct light from light source 302 that is reflected by lens 304 toward motorized mirror 308 . Motorized mirror 308 is configured to be moved in each of the vertical and horizontal axes to project a predefined image/video onto display surface 310 at different tilts/positions. In one embodiment of the present disclosure, motorized mirror 308 rotates the predefined image/video up to 90 degrees to display the predefined image at a predefined location on display surface 310. Configured. The mechanism for rotating motorized mirror 308 is discussed in detail with reference to FIG. 3B.

図3Bは、ミラー平面内の垂直軸および水平軸を中心に電動ミラー308を回転させるための機構312を例示する。機構312は、シーリングに固定され、電動ミラー308に結合されたモータ314と、モーションロッド317が水平姿勢にとどまることを確実にする物理的フック315とを含む。電動ミラー308は、シーリングに対して固定して取り付けられている。したがって、電動ミラー308に対する法線軸は固定されており、それによって、深さ軸に沿ったその動きを制限する。 FIG. 3B illustrates a mechanism 312 for rotating motorized mirror 308 about vertical and horizontal axes in the plane of the mirror. Mechanism 312 includes a motor 314 fixed to the ceiling and coupled to motorized mirror 308, and a physical hook 315 that ensures that motion rod 317 remains in a horizontal position. Motorized mirror 308 is fixedly mounted to the ceiling. Therefore, the normal axis to motorized mirror 308 is fixed, thereby limiting its movement along the depth axis.

図3Cは、モータ314が、水平方向および垂直方向における電動ミラー308の回転を制御するように適合された、2つの電気的に制御されるレバー316aおよび316bを含み得ることを例示する。 FIG. 3C illustrates that motor 314 may include two electrically controlled levers 316a and 316b adapted to control rotation of motorized mirror 308 in horizontal and vertical directions.

図3Bを再び参照すると、モータ314は、(処理ユニット102と同様の)処理ユニット301によってリアルタイムで制御され、その結果、アクティビティが、対応するセンサユニットによって処理ユニット318へ中継される場合、処理ユニット301は、関連するビデオ/画像出力を生成し、モータ314を制御して、ビデオ/画像出力を表示面310上の正確なロケーションへ案内する。本開示の文脈において、電動ミラー308は、処理ユニット318によって指示されるように360°回転するように構成される。 Referring again to FIG. 3B, motor 314 is controlled in real time by processing unit 301 (similar to processing unit 102) such that when activity is relayed to processing unit 318 by a corresponding sensor unit, the processing unit 301 generates the associated video/image output and controls motor 314 to guide the video/image output to the correct location on display surface 310 . In the context of the present disclosure, motorized mirror 308 is configured to rotate 360° as directed by processing unit 318 .

図1を再び参照すると、画像キャプチャデバイス104は、出力面112上に表示されるビデオ/画像データをキャプチャし、ビデオ/画像データをフィードバックデータとして処理ユニット102へ提供するように構成される。例えば、投影が十分に鮮明でない場合、処理ユニット102は、ビデオ出力ユニット110の合焦レンズを調整して、出力画像/ビデオデータの品質を改善し得る。 Referring back to FIG. 1, image capture device 104 is configured to capture video/image data displayed on output surface 112 and provide the video/image data to processing unit 102 as feedback data. For example, if the projection is not sharp enough, processing unit 102 may adjust the focusing lens of video output unit 110 to improve the quality of the output image/video data.

本開示の一実施形態において、過去の経験およびソフトウェア学習に基づいて、処理ユニット102は、望ましくないアクティビティを未然に防ぎ、防止するために、そのような望ましくないアクティビティが起きそうな場合を予測するように構成される。また、処理ユニット102は、「もしも(What If)」のシナリオ分析において使用されるべきリスクプロフィールを構築し得る。例えば、処理ユニット102は、あるプロセスが正確に追跡されていないことを検出し、このことをユーザに対して強調し得る。ただし、処理ユニット102は、このシナリオを、潜在的なネガティブなリスクと潜在的なポジティブなリスクとの両方として同時に見ることがある。処理ユニット102は、両方のシナリオの予想される結果を予測し得、それが、プロセスの逸脱から予期しない利益が生じることが分かる場合、それは、プロセスを自動的に変化させて、変化を改善されたプロセスに組み込むことができる。これは、システム全体にわたって変化を強制する前に結果を観察するために、スタンドアロンのステーション上で行われることが可能である。処理ユニット102は、何らかの予期せぬ理由で元の状態に戻る必要がある場合、過去のプロセスを記憶し得る。 In one embodiment of the present disclosure, based on past experience and software learning, the processing unit 102 predicts when such undesirable activity is likely to occur in order to proactively and prevent such undesirable activity. configured as The processing unit 102 may also build a risk profile to be used in “What If” scenario analysis. For example, processing unit 102 may detect that a process is not being tracked accurately and highlight this to the user. However, the processing unit 102 may simultaneously view this scenario as both a potential negative risk and a potential positive risk. The processing unit 102 can predict the expected outcome of both scenarios, and if it finds an unexpected benefit from a process deviation, it can automatically change the process to improve the change. can be incorporated into the process. This can be done on a standalone station to observe the results before forcing changes throughout the system. The processing unit 102 can remember past processes if it needs to go back to its original state for some unforeseen reason.

図4は、本開示による、ターゲット環境内の1つまたは複数のアクティビティに基づいて、表示面上にビデオデータを自動的に表示するための方法400を例示する例示的なフローチャートである。本方法は、論理的なフロー図におけるステップの集合として描かれており、論理的なフロー図は、ハードウェア、ソフトウェア、またはこれらの組合せにおいて実装され得るステップのシーケンスを表す。 FIG. 4 is an exemplary flowchart illustrating a method 400 for automatically displaying video data on a display surface based on one or more activities within a target environment in accordance with this disclosure. The method is depicted as a collection of steps in a logical flow diagram, which represents a sequence of steps that can be implemented in hardware, software, or a combination thereof.

ステップ402において、ターゲット環境内で発生する1つまたは複数のアクティビティの認識を可能にするために、ターゲット環境の画像およびビデオデータがリアルタイムでキャプチャされる。画像およびビデオデータは、360°カメラ、閉回路テレビジョン(CCTV)カメラ、高解像度(HD)カメラ、非HDカメラ、携帯型カメラ、交通カメラ、警察車両カメラ、および無人航空機(UAV)に搭載されたカメラのうちの少なくとも1つを使用してキャプチャされ得る。 At step 402, image and video data of the target environment are captured in real time to enable recognition of one or more activities occurring within the target environment. Imagery and video data are captured from 360° cameras, closed circuit television (CCTV) cameras, high definition (HD) cameras, non-HD cameras, handheld cameras, traffic cameras, police vehicle cameras, and unmanned aerial vehicles (UAVs). captured using at least one of the cameras.

ステップ404において、画像およびビデオデータが処理され、処理されたデータに基づいて、出力情報が生成される。本開示の一実施形態によれば、ビデオ/画像データは、グラフィック処理ユニット(GPU)を使用して処理される。本開示の一実施形態において、出力情報は、警報、通知、宣伝、命令、および訓練ビデオのうちの少なくとも1つを含む、予め定義されたビデオおよびオーディオデータを含む。さらに、本開示の一実施形態によれば、出力情報は、グリッドビュー画像に基づいて生成される。グリッドビュー画像は、円形の入力画像フレームを受け取り、円形の入力画像フレームの平滑化された表現を作成して、平滑化された表現のグリッドビュー画像を生成することによって生成される。さらに、グリッドビュー画像は、円形の入力画像フレーム内の1つまたは複数のエンティティの位置に関する情報を提供する。 At step 404, the image and video data are processed and output information is generated based on the processed data. According to one embodiment of the present disclosure, video/image data is processed using a graphics processing unit (GPU). In one embodiment of the present disclosure, the output information includes predefined video and audio data including at least one of alerts, notifications, advertisements, instructions, and training videos. Further, according to one embodiment of the present disclosure, the output information is generated based on grid view images. A grid-view image is generated by receiving a circular input image frame, creating a smoothed representation of the circular input image frame, and generating a grid-view image of the smoothed representation. Additionally, the grid-view image provides information regarding the position of one or more entities within the circular input image frame.

ステップ406において、ビデオ出力ユニットによって、出力情報が表示面上に表示される。本開示の一実施形態において、ビデオ出力ユニットは、360°回転するように構成される。本開示の一実施形態において、ビデオ出力ユニットは、プロジェクターを含み、表示面は、投影画像を表示するための白色の投影画面、灰色の投影画面、および白色の壁のうちの少なくとも1つを含む。 At step 406, the output information is displayed on the display surface by the video output unit. In one embodiment of the present disclosure, the video output unit is configured to rotate 360 degrees. In one embodiment of the present disclosure, the video output unit includes a projector, and the display surface includes at least one of a white projection screen, a gray projection screen, and a white wall for displaying the projected image. .

ステップ408において、ビデオ出力ユニットの回転角度が、キャプチャされた画像およびビデオデータに基づいて制御される。本開示の一実施形態において、ビデオ出力ユニットは、光源、レンズ、電動ミラーおよび電動焦点システムを含む。電動ミラーは、水平方向および垂直方向に移動されて、表示面の1つまたは複数の位置上に予め定義された画像を投影するように構成されており、電動ミラーの移動は、回転角度に基づいて、1つまたは複数の電気的に制御されるレバーによって制御される。さらに、電動焦点システムは、レンズによって反射された光源からの光を、電動ミラーの方へ案内するように構成される。 At step 408, the rotation angle of the video output unit is controlled based on the captured image and video data. In one embodiment of the present disclosure, the video output unit includes a light source, lenses, motorized mirrors and a motorized focus system. The motorized mirror is configured to be moved horizontally and vertically to project a predefined image onto one or more positions of the display surface, the movement of the motorized mirror being based on the angle of rotation. are controlled by one or more electrically controlled levers. Additionally, the motorized focus system is configured to direct light from the light source reflected by the lens toward the motorized mirror.

ステップ410において、キャプチャされた出力情報は、表示面上にリアルタイムで表示され、フィードバックデータが生成されて、ビデオ出力ユニットの焦点および方向が制御され、ビデオ出力ユニット上に表示される出力情報がさらに制御される。一例において、投影が十分に鮮明でない場合、ビデオ出力ユニットの合焦レンズが調整されて、表示される出力情報の品質が改善される。これは、投影画像とカメラ入力との間にフィードバックループを有することによって達成される。AIソフトウェアは、焦点外画像を検出し、訂正信号をレンズへ送って、画像品質を改善し得る。これは、表示面が移動したり、または形状を変化させたりする可能性があるので、進行中のループである。 At step 410, the captured output information is displayed on a display surface in real time, feedback data is generated to control the focus and orientation of the video output unit, and the output information displayed on the video output unit is further modified. controlled. In one example, if the projection is not sharp enough, the focus lens of the video output unit is adjusted to improve the quality of the displayed output information. This is achieved by having a feedback loop between the projected image and the camera input. AI software can detect out-of-focus images and send correction signals to the lens to improve image quality. This is an ongoing loop as the display surface may move or change shape.

上記において説明された本開示の実施形態に対する変形例は、添付の特許請求の範囲によって定義されるような本開示の範囲から逸脱することなく、可能である。説明し、特許請求するために使用されている「含む」、「備える」、「組み込む」、「から成る」、「有する」、「である」などの表現は、本開示が非排他的な手法で解釈されるように、すなわち、明示的に説明されていないアイテム、構成要素または要素も存在することを許容することを意図されている。単数形への言及は、複数形に関連するようにも解釈されるべきである。 Variations to the embodiments of the disclosure described above are possible without departing from the scope of the disclosure as defined by the appended claims. The terms "include," "comprise," "incorporate," "consist of," "have," "is," and the like are used to describe and claim the disclosure in a non-exclusive manner. is intended to be interpreted as such, i.e., to allow the presence of items, components or elements not explicitly described. References to the singular should also be construed to refer to the plural.

Claims (19)

ターゲット環境内の1つまたは複数のアクティビティに基づいて、表示面上に出力情報を自動的に表示するためのシステムであって、前記システムは、
1つまたは複数のアクティビティを認識するために、前記ターゲット環境の画像およびビデオデータをリアルタイムでキャプチャするように構成された画像キャプチャデバイスと、
前記画像およびビデオデータを処理して、前記出力情報を表示するためのロケーションを決定し、前記出力情報のコンテンツを決定するように構成された処理ユニットと、
前記表示面上に前記出力情報を表示するように構成されたビデオ出力ユニットであって、前記ビデオ出力ユニットは、360°回転するように構成され、前記ビデオ出力ユニットの回転角度は、前記処理ユニットによって制御される、ビデオ出力ユニットと
を備え、
前記画像キャプチャデバイスは、前記表示面上に表示される前記出力情報をリアルタイムでキャプチャし、フィードバックデータを前記処理ユニットへリアルタイムで提供して、前記処理ユニットが、焦点、方向、および前記ビデオ出力ユニットに表示される前記出力情報の前記コンテンツを制御することを可能にするようにさらに構成される、システム。
A system for automatically displaying output information on a display surface based on one or more activities within a target environment, the system comprising:
an image capture device configured to capture image and video data of the target environment in real-time to perceive one or more activities;
a processing unit configured to process the image and video data to determine a location for displaying the output information and to determine the content of the output information;
a video output unit configured to display the output information on the display surface, the video output unit configured to rotate 360°, the rotation angle of the video output unit a video output unit controlled by
The image capture device captures in real-time the output information displayed on the display surface and provides feedback data to the processing unit in real-time so that the processing unit can determine focus, orientation, and the video output unit. The system is further configured to allow controlling the content of the output information displayed in the system.
前記ターゲット環境のオーディオデータを記録し、前記記録されたオーディオデータを前記処理ユニットへ送信するように構成されたオーディオ記録デバイスをさらに備え、前記オーディオ記録デバイスは、前記出力情報のオーディオデータをフィードバックデータとして記録し、前記フィードバックデータを前記処理ユニットに提供するように構成される請求項1に記載のシステム。 further comprising an audio recording device configured to record audio data of the target environment and transmit the recorded audio data to the processing unit, wherein the audio recording device converts audio data of the output information into feedback data; and providing the feedback data to the processing unit. 前記処理ユニットは、前記ターゲット環境内の1つまたは複数の予め定義されたロケーションへ視覚情報を案内するように構成される人工知能(AI)プラットフォームを含む請求項1に記載のシステム。 2. The system of claim 1, wherein the processing unit comprises an artificial intelligence (AI) platform configured to guide visual information to one or more predefined locations within the target environment. 前記処理ユニットは、ビデオ/画像データを処理するためのグラフィック処理ユニット(GPU)を含む請求項1に記載のシステム。 2. The system of claim 1, wherein the processing unit comprises a graphics processing unit (GPU) for processing video/image data. 前記出力情報は、警報、通知、宣伝、命令、および訓練ビデオのうちの少なくとも1つを含む、予め定義されたビデオおよびオーディオデータを含む請求項1に記載のシステム。 2. The system of claim 1, wherein the output information includes predefined video and audio data including at least one of alerts, notifications, advertisements, instructions, and training videos. 前記ビデオ出力ユニットは、プロジェクターを含み、前記表示面は、投影画像を表示するための白色の投影画面、灰色の投影画面、および白色の壁のうちの少なくとも1つを含む請求項1に記載のシステム。 2. The video output unit of claim 1, wherein the video output unit comprises a projector and the display surface comprises at least one of a white projection screen, a gray projection screen, and a white wall for displaying projected images. system. 前記処理ユニットは、前記画像キャプチャデバイスから円形の入力画像フレームを受け取り、前記円形の入力画像フレームの平滑化された表現を作成し、前記平滑化された表現のグリッドビュー画像を生成するように構成され、前記グリッドビュー画像は、前記円形の入力画像フレーム内の1つまたは複数のエンティティの位置に関する情報を提供し、前記処理ユニットは、前記グリッドビュー画像に基づいて、前記出力情報を生成し、表示するように構成される請求項1に記載のシステム。 The processing unit is configured to receive a circular input image frame from the image capture device, create a smoothed representation of the circular input image frame, and generate a grid view image of the smoothed representation. wherein said grid-view image provides information regarding the position of one or more entities within said circular input image frame, said processing unit generating said output information based on said grid-view image; 2. The system of claim 1, configured to display. 前記ターゲット環境内の1つまたは複数のイベントおよび変化を検出するように構成されたセンサユニットをさらに備え、前記センサユニットは、レーダ、X線、スキャナー、動きセンサ、温度センサ、ガスセンサ、および火災センサのうちの少なくとも1つを含む請求項1に記載のシステム。 further comprising a sensor unit configured to detect one or more events and changes in said target environment, said sensor unit including radar, x-ray, scanner, motion sensor, temperature sensor, gas sensor, and fire sensor 2. The system of claim 1, comprising at least one of: 前記ビデオ出力ユニットは、
光源と、
レンズと、
水平方向および垂直方向に移動されて、前記表示面の1つまたは複数の位置上に予め定義された画像を投影するように構成された電動ミラーであって、前記電動ミラーの移動は、前記処理ユニットによって動作させられる1つまたは複数の電気的に制御されるレバーによって制御される、電動ミラーと、
前記レンズによって反射された前記光源からの光を、前記電動ミラーの方へ案内するように構成された電動焦点システムと
を含む請求項1に記載のシステム。
The video output unit is
a light source;
a lens;
A motorized mirror configured to be moved horizontally and vertically to project a predefined image onto one or more locations of said display surface, wherein movement of said motorized mirror is associated with said process. motorized mirrors controlled by one or more electrically controlled levers operated by the unit;
and a motorized focusing system configured to direct light from the light source reflected by the lens toward the motorized mirror.
ターゲット環境内の1つまたは複数のアクティビティに基づいて、表示面上に出力情報を自動的に表示するための方法であって、前記方法は、
1つまたは複数のアクティビティを認識するために、前記ターゲット環境の画像およびビデオデータをリアルタイムでキャプチャすることと、
前記画像およびビデオデータを処理して、前記出力情報を表示するためのロケーションを決定し、前記出力情報のコンテンツを決定することと、
ビデオ出力ユニットによって、前記表示面上に前記出力情報を表示することであって、前記ビデオ出力ユニットは、360°回転するように構成される、ことと、
前記キャプチャされた画像およびビデオデータに基づいて、前記ビデオ出力ユニットの回転角度を制御することと、
前記表示面上に表示される前記出力情報をリアルタイムでキャプチャし、フィードバックデータを生成して、焦点、方向、および前記ビデオ出力ユニット上に表示される前記出力情報の前記コンテンツを制御することと
を含む、方法。
A method for automatically displaying output information on a display surface based on one or more activities in a target environment, the method comprising:
capturing image and video data of the target environment in real time to recognize one or more activities;
processing the image and video data to determine a location for displaying the output information and determining content of the output information;
displaying the output information on the display surface by a video output unit, the video output unit being configured to rotate 360°;
controlling a rotation angle of the video output unit based on the captured image and video data;
capturing in real time the output information displayed on the display surface and generating feedback data to control focus, orientation, and the content of the output information displayed on the video output unit; including, method.
前記ターゲット環境のオーディオデータを記録し、前記記録されたオーディオデータを送信することと、
前記出力情報のオーディオデータをフィードバックデータとして記録し、前記フィードバックデータを提供することと
をさらに含む請求項10に記載の方法。
recording audio data of the target environment and transmitting the recorded audio data;
11. The method of claim 10, further comprising recording audio data of said output information as feedback data and providing said feedback data.
AIプラットフォームを使用して、前記ターゲット環境内の1つまたは複数の予め定義されたロケーションへ視覚情報を案内することをさらに含む請求項10に記載の方法。 11. The method of claim 10, further comprising using an AI platform to guide visual information to one or more predefined locations within the target environment. グラフィック処理ユニット(GPU)を使用して、前記ビデオ/画像データを処理することをさらに含む請求項10に記載の方法。 11. The method of claim 10, further comprising using a graphics processing unit (GPU) to process the video/image data. 前記出力情報は、警報、通知、宣伝、命令、および訓練ビデオのうちの少なくとも1つを含む、予め定義されたビデオおよびオーディオデータを含む請求項10に記載の方法。 11. The method of claim 10, wherein the output information includes predefined video and audio data including at least one of alerts, notifications, advertisements, instructions, and training videos. 前記ビデオ出力ユニットは、プロジェクターを含み、前記表示面は、投影画像を表示するための白色の投影画面、灰色の投影画面、および白色の壁のうちの少なくとも1つを含む請求項10に記載の方法。 11. The video output unit of claim 10, wherein the video output unit comprises a projector and the display surface comprises at least one of a white projection screen, a gray projection screen and a white wall for displaying projected images. Method. 円形の入力画像フレームを受け取り、前記円形の入力画像フレームの平滑化された表現を作成し、前記平滑化された表現のグリッドビュー画像を生成することであって、前記グリッドビュー画像は、前記円形の入力画像フレーム内の1つまたは複数のエンティティの位置に関する情報を提供する、ことと、前記グリッドビュー画像に基づいて、前記出力情報を生成し、表示することとをさらに含む請求項10に記載の方法。 receiving a circular input image frame, creating a smoothed representation of the circular input image frame, and generating a grid-view image of the smoothed representation, the grid-view image being the circular and generating and displaying the output information based on the grid view image. the method of. レーダ、X線、スキャナー、動きセンサ、温度センサ、ガスセンサ、および火災センサから成る群から選択されるセンサを使用して、前記ターゲット環境内の1つまたは複数のイベントおよび変化を検出することをさらに含む請求項10に記載の方法。 Further detecting one or more events and changes in said target environment using a sensor selected from the group consisting of radar, x-ray, scanner, motion sensor, temperature sensor, gas sensor, and fire sensor. 11. The method of claim 10, comprising: 前記ビデオ出力ユニットは、
光源と、
レンズと、
水平方向および垂直方向に移動されて、前記表示面の1つまたは複数の位置上に予め定義された画像を投影するように構成された電動ミラーであって、前記電動ミラーの移動は、1つまたは複数の電気的に制御されるレバーによって制御される、電動ミラーと、
前記レンズによって反射された前記光源からの光を、前記電動ミラーの方へ案内するように構成された電動焦点システムと
を含む請求項10に記載の方法。
The video output unit is
a light source;
a lens;
A motorized mirror configured to be moved horizontally and vertically to project a predefined image onto one or more locations of the display surface, wherein movement of the motorized mirror is performed by one or a motorized mirror controlled by a plurality of electrically controlled levers;
and a motorized focus system configured to direct light from the light source reflected by the lens toward the motorized mirror.
ターゲット環境内の1つまたは複数のアクティビティに基づいて、表示面上に出力情報を自動的に表示するためのコンピュータプログラム可能な製品であって、前記コンピュータプログラム可能な製品は、命令のセットを備え、前記命令のセットは、プロセッサによって実行された場合、前記プロセッサに、
1つまたは複数のアクティビティを認識するために、前記ターゲット環境の画像およびビデオデータをリアルタイムでキャプチャすることと、
前記画像およびビデオデータを処理して、前記出力情報を表示するためのロケーションを決定し、前記出力情報のコンテンツを決定することと、
ビデオ出力ユニットによって、前記表示面上に前記出力情報を表示することであって、前記ビデオ出力ユニットは、360°回転するように構成される、表示することと、
前記キャプチャされた画像およびビデオデータに基づいて、前記ビデオ出力ユニットの回転角度を制御することと、
前記表示面上に表示される前記出力情報をリアルタイムでキャプチャし、フィードバックデータを生成して、焦点、方向、および前記ビデオ出力ユニット上に表示される前記出力情報の前記コンテンツを制御することと
を行わせる、コンピュータプログラム可能な製品。
A computer programmable product for automatically displaying output information on a display surface based on one or more activities within a target environment, said computer programmable product comprising a set of instructions. , the set of instructions, when executed by a processor, causes the processor to:
capturing image and video data of the target environment in real time to recognize one or more activities;
processing the image and video data to determine a location for displaying the output information and determining content of the output information;
displaying the output information on the display surface by a video output unit, the video output unit being configured to rotate 360°;
controlling a rotation angle of the video output unit based on the captured image and video data;
capturing in real time the output information displayed on the display surface and generating feedback data to control focus, orientation, and the content of the output information displayed on the video output unit; A computer-programmable product that causes
JP2022537577A 2019-12-20 2020-10-27 Systems and methods for displaying video data within a target environment Pending JP2023506990A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/722,073 2019-12-20
US16/722,073 US11146765B2 (en) 2019-12-20 2019-12-20 System and method for displaying video data in a target environment
PCT/IB2020/060059 WO2021123945A1 (en) 2019-12-20 2020-10-27 System and method for displaying video in a target environment

Publications (1)

Publication Number Publication Date
JP2023506990A true JP2023506990A (en) 2023-02-20

Family

ID=73060032

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022537577A Pending JP2023506990A (en) 2019-12-20 2020-10-27 Systems and methods for displaying video data within a target environment

Country Status (11)

Country Link
US (1) US11146765B2 (en)
EP (1) EP4088244A1 (en)
JP (1) JP2023506990A (en)
KR (1) KR20220101159A (en)
CN (1) CN114761984A (en)
AU (1) AU2020407533B2 (en)
BR (1) BR112022009575A2 (en)
CA (1) CA3159848A1 (en)
CO (1) CO2022008236A2 (en)
MX (1) MX2022007340A (en)
WO (1) WO2021123945A1 (en)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003066538A (en) * 2001-08-23 2003-03-05 Taiyo Kogyo Corp Display device using film material
JP2009008966A (en) * 2007-06-29 2009-01-15 Marubeni Corp Electronic advertisement output device
US20090115915A1 (en) * 2006-08-09 2009-05-07 Fotonation Vision Limited Camera Based Feedback Loop Calibration of a Projection Device
JP2014063015A (en) * 2012-09-21 2014-04-10 Seiko Epson Corp Projector
CN104537616A (en) * 2014-12-20 2015-04-22 中国科学院西安光学精密机械研究所 Correction Method of Fisheye Image Distortion
WO2016103560A1 (en) * 2014-12-25 2016-06-30 パナソニックIpマネジメント株式会社 Projector device
JP2017090901A (en) * 2015-11-10 2017-05-25 パナソニックIpマネジメント株式会社 Projector system
JP2017163431A (en) * 2016-03-10 2017-09-14 パナソニックIpマネジメント株式会社 Projection apparatus
WO2017163928A1 (en) * 2016-03-24 2017-09-28 ソニー株式会社 Image processing device and method
WO2019064608A1 (en) * 2017-10-01 2019-04-04 裕之 本地川 Projection direction varying device and projection device
JP2019510312A (en) * 2016-03-15 2019-04-11 コノート、エレクトロニクス、リミテッドConnaught Electronics Ltd. Method, computer device, driver assistance system, and motor vehicle for motion estimation between two images of an environmental region of a motor vehicle

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7164117B2 (en) * 1992-05-05 2007-01-16 Automotive Technologies International, Inc. Vehicular restraint system control system and method using multiple optical imagers
US6099522A (en) * 1989-02-06 2000-08-08 Visx Inc. Automated laser workstation for high precision surgical and industrial interventions
US6431711B1 (en) * 2000-12-06 2002-08-13 International Business Machines Corporation Multiple-surface display projector with interactive input capability
US20030126013A1 (en) * 2001-12-28 2003-07-03 Shand Mark Alexander Viewer-targeted display system and method
US8690358B2 (en) * 2011-06-27 2014-04-08 Microsoft Corporation Video projection device for mobile device having a first projection surface integral with a surface of the mobile device
US20130050198A1 (en) * 2011-08-25 2013-02-28 Innovare Solutions, LLC Multi-directional display
JP2014126693A (en) * 2012-12-26 2014-07-07 Funai Electric Co Ltd Image projection apparatus, and image display apparatus
US20170038942A1 (en) * 2015-08-07 2017-02-09 Vrideo Playback initialization tool for panoramic videos
CN109475294B (en) * 2016-05-06 2022-08-19 斯坦福大学托管董事会 Mobile and wearable video capture and feedback platform for treating mental disorders
US10537701B2 (en) 2016-07-05 2020-01-21 International Business Machines Corporation Alleviating movement disorder conditions using unmanned aerial vehicles
GB201709199D0 (en) * 2017-06-09 2017-07-26 Delamont Dean Lindsay IR mixed reality and augmented reality gaming system
WO2019133792A1 (en) * 2017-12-30 2019-07-04 Infinite Kingdoms, LLC Smart entertainment technology attractions
DK201870347A1 (en) * 2018-01-24 2019-10-08 Apple Inc. Devices, Methods, and Graphical User Interfaces for System-Wide Behavior for 3D Models

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003066538A (en) * 2001-08-23 2003-03-05 Taiyo Kogyo Corp Display device using film material
US20090115915A1 (en) * 2006-08-09 2009-05-07 Fotonation Vision Limited Camera Based Feedback Loop Calibration of a Projection Device
JP2009008966A (en) * 2007-06-29 2009-01-15 Marubeni Corp Electronic advertisement output device
JP2014063015A (en) * 2012-09-21 2014-04-10 Seiko Epson Corp Projector
CN104537616A (en) * 2014-12-20 2015-04-22 中国科学院西安光学精密机械研究所 Correction Method of Fisheye Image Distortion
WO2016103560A1 (en) * 2014-12-25 2016-06-30 パナソニックIpマネジメント株式会社 Projector device
JP2017090901A (en) * 2015-11-10 2017-05-25 パナソニックIpマネジメント株式会社 Projector system
JP2017163431A (en) * 2016-03-10 2017-09-14 パナソニックIpマネジメント株式会社 Projection apparatus
JP2019510312A (en) * 2016-03-15 2019-04-11 コノート、エレクトロニクス、リミテッドConnaught Electronics Ltd. Method, computer device, driver assistance system, and motor vehicle for motion estimation between two images of an environmental region of a motor vehicle
WO2017163928A1 (en) * 2016-03-24 2017-09-28 ソニー株式会社 Image processing device and method
WO2019064608A1 (en) * 2017-10-01 2019-04-04 裕之 本地川 Projection direction varying device and projection device

Also Published As

Publication number Publication date
US11146765B2 (en) 2021-10-12
AU2020407533B2 (en) 2023-10-05
AU2020407533A1 (en) 2022-06-02
KR20220101159A (en) 2022-07-19
CN114761984A (en) 2022-07-15
CO2022008236A2 (en) 2022-07-08
EP4088244A1 (en) 2022-11-16
US20210195149A1 (en) 2021-06-24
CA3159848A1 (en) 2021-06-24
MX2022007340A (en) 2022-07-13
BR112022009575A2 (en) 2022-08-02
WO2021123945A1 (en) 2021-06-24

Similar Documents

Publication Publication Date Title
EP2553924B1 (en) Effortless navigation across cameras and cooperative control of cameras
US20160019427A1 (en) Video surveillence system for detecting firearms
Fan et al. Heterogeneous information fusion and visualization for a large-scale intelligent video surveillance system
US9569669B2 (en) Centralized video surveillance data in head mounted device
CN101119482B (en) Overall view monitoring method and apparatus
US9049348B1 (en) Video analytics for simulating the motion tracking functionality of a surveillance camera
US7825792B2 (en) Systems and methods for distributed monitoring of remote sites
WO2016157327A1 (en) Video surveillance system and video surveillance method
AU2014202889B2 (en) Controlling movement of a camera to autonomously track a mobile object
KR101983852B1 (en) System for providing exhibition service based on exhibition space analysis considering visitor's viewpoint
US20220188545A1 (en) Augmented reality enhanced situational awareness
JP2009507295A (en) Object tracking and alarm
KR20110140109A (en) Content protection using automatically selectable display surfaces
CN110536074B (en) Intelligent inspection system and inspection method
US10979676B1 (en) Adjusting the presented field of view in transmitted data
WO2020151425A1 (en) Switching display method and system for 3d real scene visual monitoring
US11354885B1 (en) Image data and simulated illumination maps
JP2018181159A (en) Security system, crime prevention method, and robot
US20060072010A1 (en) Target property maps for surveillance systems
JP6912881B2 (en) Information processing equipment, information processing methods and programs
JP2005033570A (en) Method and system for providing mobile body image
JP2023506990A (en) Systems and methods for displaying video data within a target environment
JP2019139516A (en) Movement control system and movement control method for robot
US20230324906A1 (en) Systems and methods for remote viewing of self-driving vehicles
US9111237B2 (en) Evaluating an effectiveness of a monitoring system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220617

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230815

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240501