JP2023506990A - Systems and methods for displaying video data within a target environment - Google Patents
Systems and methods for displaying video data within a target environment Download PDFInfo
- Publication number
- JP2023506990A JP2023506990A JP2022537577A JP2022537577A JP2023506990A JP 2023506990 A JP2023506990 A JP 2023506990A JP 2022537577 A JP2022537577 A JP 2022537577A JP 2022537577 A JP2022537577 A JP 2022537577A JP 2023506990 A JP2023506990 A JP 2023506990A
- Authority
- JP
- Japan
- Prior art keywords
- video
- output information
- image
- display surface
- output unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 42
- 238000012545 processing Methods 0.000 claims abstract description 67
- 230000000694 effects Effects 0.000 claims abstract description 25
- 230000008569 process Effects 0.000 claims description 17
- 238000012549 training Methods 0.000 claims description 14
- 238000013473 artificial intelligence Methods 0.000 claims description 8
- 230000033001 locomotion Effects 0.000 claims description 8
- 230000000007 visual effect Effects 0.000 claims description 8
- 238000010586 diagram Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000003920 environmental process Methods 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000004886 process control Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0251—Targeted advertisements
- G06Q30/0252—Targeted advertisements based on events or environment, e.g. weather or festivals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
- G03B17/48—Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
- G03B17/54—Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B21/00—Projectors or projection-type viewers; Accessories therefor
- G03B21/10—Projectors with built-in or built-on screen
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42202—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] environmental sensors, e.g. for detecting temperature, luminosity, pressure, earthquakes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3191—Testing thereof
- H04N9/3194—Testing thereof including sensor feedback
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- Finance (AREA)
- Strategic Management (AREA)
- Environmental & Geological Engineering (AREA)
- Theoretical Computer Science (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Economics (AREA)
- Game Theory and Decision Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Ecology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Emergency Management (AREA)
- Environmental Sciences (AREA)
- Remote Sensing (AREA)
- Closed-Circuit Television Systems (AREA)
- Controls And Circuits For Display Device (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
ターゲット環境内のアクティビティに基づいて、表示面上に出力情報を自動的に表示するためのシステムは、ターゲット環境のデータをリアルタイムでキャプチャするための画像キャプチャデバイスと、データを処理して、出力情報を表示するためのロケーションを決定し、出力情報のコンテンツを決定するための処理ユニットと、表示面上に出力情報を表示するためのビデオ出力ユニットとを含む。ビデオ出力ユニットは、360°回転するように構成され、ビデオ出力ユニットの回転角度は、処理ユニットによって制御される。画像キャプチャデバイスは、表示面上に表示される出力情報をリアルタイムでさらにキャプチャし、フィードバックデータを処理ユニットにリアルタイムで提供して、処理ユニットが、焦点、方向、およびビデオ出力ユニットに表示される出力情報を制御することを可能にする。A system for automatically displaying output information on a display surface based on activity within the target environment includes an image capture device for capturing data of the target environment in real time and processing the data to produce output information. and a processing unit for determining the content of the output information and a video output unit for displaying the output information on the display surface. The video output unit is configured to rotate 360°, and the rotation angle of the video output unit is controlled by the processing unit. The image capture device further captures the output information displayed on the display surface in real time and provides feedback data to the processing unit in real time so that the processing unit can determine the focus, orientation, and output displayed on the video output unit. Allows you to control information.
Description
本開示は、一般に、ターゲット環境内のビデオデータを表示するためのシステムおよび方法に関し、より詳細には、リアルタイムのインタラクティブな視覚的プロンプトおよびオーディオプロンプトを使用して、閉ループ人工知能(AI)ドリブンプロセスに基づいて、ビデオデータを表示することに関する。 FIELD OF THE DISCLOSURE This disclosure relates generally to systems and methods for displaying video data in a target environment, and more particularly to closed-loop artificial intelligence (AI) driven processes using real-time interactive visual and audio prompts. for displaying video data based on.
企業は、典型的には、公共の場所、例えば、ショッピングセンター、電車の駅/バス停等において表示画面上で宣伝することによって、新しく売り出される製品を宣伝することに多額の金銭を費やす。企業の利益および投資収益率を最大化するために、企業は、最大数の顧客が新製品を購入することを望む。しかしながら、宣伝用に使用される既存の表示画面は、予めプログラムされたデータしか表示しない。特に、既存の表示画面は、ターゲットとされている顧客に基づいて宣伝を表示しない。 Businesses typically spend a large amount of money advertising their newly launched products by advertising on display screens in public places, such as shopping centers, train stations/bus stops, and the like. In order to maximize the company's profit and return on investment, the company wants the maximum number of customers to purchase the new product. However, existing display screens used for advertising only display pre-programmed data. In particular, existing display screens do not display promotions based on targeted customers.
さらに、セルフチェックアウト(SCO:Self Check-Out)店舗において、レジ係は、顧客に対する請求を取り扱うために請求カウンタに物理的に存在しない。これは盗難率の増加をもたらした。したがって、SCO店舗においては、システムが、盗難の観察に基づいてオーディオ/ビデオ警報を提供する必要がある。同様に、顧客がSCOシステムを適切に使用することができない場合、顧客が対応および支援を必要としている可能性があることをシステムが店舗の管理者に知らせる必要がある。 Additionally, in Self Check-Out (SCO) stores, cashiers are not physically present at the billing counter to handle billing for customers. This has resulted in increased theft rates. Therefore, in SCO stores, there is a need for a system to provide audio/video alerts based on theft observations. Similarly, if a customer is unable to use the SCO system properly, the system should notify store management that the customer may need attention and assistance.
さらに、自然災害(例えば、地震、火災、津波等)の場合には、公共の場所にいる人々に災害について知らせ、より安全な場所への案内を人々に提供するために、警報が必要となり得る。緊急事態、例えば、陸軍/海軍基地に対する攻撃または公共の場所におけるテロリスト攻撃などにおいて、現行の安全手順は、攻撃者の位置を特定すること、またはさもなければ当局者が攻撃者を捕らえるのに役立つビデオ/オーディオ命令を提供することを支援しない。 Additionally, in the event of natural disasters (e.g. earthquakes, fires, tsunamis, etc.), warnings may be necessary to inform people in public places of the disaster and to provide them with directions to safer places. . In an emergency situation, such as an attack on an army/naval base or a terrorist attack in a public place, current security procedures help to locate the attacker or otherwise help officials to apprehend the attacker. Does not support providing video/audio instructions.
さらに、学生を指導/訓練するための現行のシステムは、学生の環境を観察し、それに応じて指導/訓練を適合させるものではない。例えば、現行の訓練システムは、医学生または獣医学生を訓練するための予め確立された手順を実行し、これらの学生の環境を考慮に入れない。 Furthermore, current systems for teaching/training students do not observe the student's environment and adapt teaching/training accordingly. For example, current training systems follow pre-established procedures for training medical or veterinary students and do not take into account the environment of these students.
したがって、上記に鑑みて、1人または複数のターゲットユーザの環境を考慮に入れ、それに応じて、自動化されたオーディオ/ビデオ出力を提供するシステムに対する必要性が存在する。 Therefore, in view of the above, a need exists for a system that takes into account the environment of one or more target users and provides automated audio/video output accordingly.
本開示の一態様において、ターゲット環境内の1つまたは複数のアクティビティに基づいて、表示面上に出力情報を自動的に表示するためのシステムが提供される。本システムは、1つまたは複数のアクティビティを認識するために、ターゲット環境の画像およびビデオデータをリアルタイムでキャプチャするように構成された画像キャプチャデバイスを含む。本システムは、画像およびビデオデータを処理して、出力情報を表示するためのロケーションを決定し、出力情報のコンテンツを決定するように構成された処理ユニットを含み得る。本システムは、表示面上に出力情報を表示するように構成されたビデオ出力ユニットであって、ビデオ出力ユニットは、360°回転するように構成され、ビデオ出力ユニットの回転角度は、処理ユニットによって制御される、ビデオ出力ユニットをさらに含み得る。画像キャプチャデバイスは、表示面上に表示される出力情報をリアルタイムでキャプチャし、フィードバックデータを処理ユニットにリアルタイムで提供して、処理ユニットが、焦点、方向、およびビデオ出力ユニット上に表示される出力情報を制御することを可能にするようにさらに構成される。 In one aspect of the present disclosure, a system is provided for automatically displaying output information on a display surface based on one or more activities within a target environment. The system includes an image capture device configured to capture image and video data of the target environment in real time to perceive one or more activities. The system may include a processing unit configured to process image and video data to determine locations for displaying output information and to determine content of output information. The system comprises a video output unit configured to display output information on a display surface, the video output unit configured to rotate 360°, the angle of rotation of the video output unit being determined by the processing unit It may further include a controlled video output unit. The image capture device captures output information displayed on the display surface in real time and provides feedback data to the processing unit in real time so that the processing unit can determine the focus, orientation, and output displayed on the video output unit. It is further configured to allow information to be controlled.
本開示の別の態様において、ターゲット環境内の1つまたは複数のアクティビティに基づいて、表示面上に出力情報を自動的に表示するための方法が提供される。本方法は、1つまたは複数のアクティビティを認識するために、ターゲット環境の画像およびビデオデータをリアルタイムでキャプチャすることを含む。本方法は、画像およびビデオデータを処理して、出力情報を表示するためのロケーションを決定し、出力情報のコンテンツを決定することをさらに含み得る。本方法は、ビデオ出力ユニットによって、表示面上に出力情報を表示することであって、ビデオ出力ユニットは、360°回転するように構成される、ことをさらに含み得る。本方法は、キャプチャされた画像およびビデオデータに基づいて、ビデオ出力ユニットの回転角度を制御することをさらに含み得る。本方法は、表示面上に表示される出力情報をリアルタイムでキャプチャすることと、フィードバックデータを生成して、焦点、方向、およびビデオ出力ユニット上に表示される出力情報を制御することとをさらに含み得る。 In another aspect of the present disclosure, a method is provided for automatically displaying output information on a display surface based on one or more activities within a target environment. The method includes capturing image and video data of the target environment in real time to recognize one or more activities. The method may further include processing the image and video data to determine locations for displaying the output information and determining content of the output information. The method may further include displaying the output information on the display surface with the video output unit, wherein the video output unit is configured to rotate 360 degrees. The method may further include controlling the rotation angle of the video output unit based on the captured image and video data. The method further comprises capturing the output information displayed on the display surface in real time and generating feedback data to control the focus, orientation, and output information displayed on the video output unit. can contain.
本開示のまた別の態様において、ターゲット環境内の1つまたは複数のアクティビティに基づいて、表示面上に出力情報を自動的に表示するためのコンピュータプログラム可能な製品が提供される。コンピュータプログラム可能な製品は、命令のセットを備え、命令のセットは、プロセッサによって実行された場合、プロセッサに、1つまたは複数のアクティビティを認識するために、ターゲット環境の画像およびビデオデータをリアルタイムでキャプチャすることと、画像およびビデオデータを処理して、出力情報を表示するためのロケーションを決定し、出力情報のコンテンツを決定することと、処理されたデータに基づいて、出力情報を生成することと、ビデオ出力ユニットによって、表示面上に出力情報を表示することとを行わせる。ビデオ出力ユニットは、360°回転するように構成され、ビデオ出力ユニットの回転角度は、キャプチャされた画像およびビデオデータに基づいて制御される。さらに、表示面上にリアルタイムで表示される出力情報がキャプチャされ、フィードバックデータが生成されて、焦点、方向、およびビデオ出力ユニット上に表示される出力情報が制御される。 In yet another aspect of the present disclosure, a computer programmable product is provided for automatically displaying output information on a display surface based on one or more activities within a target environment. A computer programmable product comprises a set of instructions which, when executed by a processor, causes the processor to generate image and video data of a target environment in real time to perceive one or more activities. Capturing and processing image and video data to determine locations for displaying output information, determining content of the output information, and generating output information based on the processed data. and displaying the output information on a display surface by means of a video output unit. The video output unit is configured to rotate 360 degrees, and the rotation angle of the video output unit is controlled based on the captured image and video data. Additionally, the output information displayed in real time on the display surface is captured and feedback data is generated to control the focus, orientation, and output information displayed on the video output unit.
本開示の様々な実施形態は、人間の挙動をキャプチャし、人間とインタラクションおよび通信して、観察されているプロセスおよび環境にとって適当な手法で人間に指示または通知するシステムを提供する。本システムは、視覚センサ入力、オーディオセンサ入力および他のセンサ入力を取り込み、視覚的出力およびオーディオ出力を作成して、バックグラウンドで動作するソフトウェアインテリジェンスによって管理される閉ループインタラクションを形成することができる。本システムは、標準および規定されたプロセスに対する最適な性能の自動保証を可能にする、インテリジェントなインストラクター/コーチ/管理者としてさらに動作し得る。本システムは、入力用のカメラと、出力部用であり、AIソフトウェアによって制御されるプロジェクターとを使用して、ユーザとの双方向通信を有する機会を作成する。 Various embodiments of the present disclosure provide a system that captures human behavior, interacts and communicates with humans, and instructs or informs humans in a manner appropriate to the process and environment being observed. The system can take visual, audio, and other sensor inputs, create visual and audio outputs, and form closed-loop interactions managed by software intelligence running in the background. The system can further act as an intelligent instructor/coach/manager, enabling automatic assurance of optimal performance against standards and prescribed processes. The system uses a camera for input and a projector for output, controlled by AI software, to create the opportunity to have two-way communication with the user.
本システムは、ユーザが指導され、または訓練される必要があるシナリオにおいて有用である。カメラは、環境的なプロセスを観察し、プロジェクターを使用して、ユーザに所望の結果に応じて動作し、訓練の記録を残すように案内し得る。別の例は、医学生または獣医学生が特定の手順を実行するように訓練することであろう。閉ループフィードバックは、AIソフトウェアがリアルタイム制御され、プロセスおよびアクティビティが発生した際に、それらを変更または修正することができることを保証する。最適なプロセスまたは挙動の結果を指導し、制御し、およびまたは確実にするために、リアルタイムのインタラクティブな視覚的プロンプト/ナッジ(nudges)およびオーディオプロンプト/ナッジを使用する閉ループAIドリブンプロセス制御。 The system is useful in scenarios where users need to be instructed or trained. A camera may observe environmental processes and use a projector to guide the user to act according to the desired result and keep a record of the training. Another example would be training medical or veterinary students to perform a particular procedure. Closed-loop feedback ensures that AI software is under real-time control and can change or modify processes and activities as they occur. Closed-loop AI-driven process control using real-time interactive visual and audio prompts/nudges to guide, control and/or ensure optimal process or behavioral outcomes.
本開示の特徴は、添付の特許請求の範囲によって定義されるような本開示の範囲から逸脱することなく、様々な組合せにおいて組み合わされることを許容することが認識されるであろう。 It will be appreciated that the features of the disclosure are permissible to be combined in various combinations without departing from the scope of the disclosure as defined by the appended claims.
上記の概要、および例示的な実施形態の以下の詳細な説明は、添付の図面と共に読まれる場合に、より良く理解される。本開示を例示する目的のために、本開示の例示的な構造が、図面に示される。しかしながら、本開示は、本明細書において開示される特定の方法および手段に限定されない。さらに、当業者は、図面が縮尺通りではないことを理解するであろう。可能な限り、同様の要素は、同一の番号によって示されている。 The above summary, and the following detailed description of illustrative embodiments, are better understood when read in conjunction with the accompanying drawings. For purposes of illustrating the present disclosure, exemplary structures of the present disclosure are shown in the drawings. However, the disclosure is not limited to the specific methods and instrumentalities disclosed herein. Additionally, those skilled in the art will appreciate that the drawings are not to scale. Wherever possible, similar elements are denoted by identical numbers.
添付の図面において、下線が引かれた数字は、下線が引かれた数字が配置されるアイテム、または下線が引かれた数字が隣接するアイテムを表すために採用される。下線が引かれていない数字は、下線が引かれていない数字をアイテムに結びつける線によって識別されるアイテムに関連する。数字に下線が引かれておらず、関連付けられた矢印を伴う場合、その下線が引かれていない数字は、矢印が指す一般的なアイテムを識別するために使用される。 In the accompanying drawings, underlined numbers are employed to represent the item in which the underlined number is placed or the item to which the underlined number is adjacent. Non-underlined numbers relate to the item identified by the line connecting the non-underlined number to the item. If a number is not underlined and has an associated arrow, the non-underlined number is used to identify the general item to which the arrow points.
以下の詳細な説明は、本開示の実施形態およびそれらが実装され得る手法を例示する。本開示を実施する最良の形態が開示されているが、当業者は、本開示を実施または実践するための他の実施形態も可能であることを認識するであろう。 The following detailed description illustrates embodiments of the disclosure and the manner in which they may be implemented. While the best mode of carrying out the disclosure has been disclosed, those skilled in the art will recognize that other embodiments for making or practicing the disclosure are possible.
図1は、本開示の一実施形態による、ターゲット環境101内のアクティビティに基づいて、ビデオデータを表示するための例示的なシステム100の図である。本開示の一実施形態において、ターゲット環境101は、セルフチェックアウト店舗(SCO)に関係し得、図示されていないが、エンティティ、例えば、製品、コンベヤ、産業用ロボットなどと、アクティビティ、例えば、オペレータが、現場に入り、または現場を出ること、アイテムを選び、投下し、移動させ、重み付けし、またはスキャンすること、タッチスクリーンディスプレイを操作すること、およびキャッシュ、モバイル電子商取引またはクレジットカードを通じて支払うことなどを含み得る。しかしながら、ターゲット環境101が一般工業地域、軍事/海軍基地、訓練ホール、セキュリティ検査エリア、ショッピングセンター、およびレストランに関係してもよいことは、当業者には明らかであろう。上記に特定されたターゲット環境101に加えて、システム100は、リテールオートメーション、顧客アップセリング、従業員指導、従業員訓練、ロジスティクスオートメーション(品物の輸入/輸出)、EG外科訓練などの医学的指示、視覚的なキューを用いた外科専門家訓練、火災、地震、および銃撃の場合における緊急命令において有用となり得る。
FIG. 1 is an illustration of an
システム100は、通信ネットワークを通じて互いに通信可能に結合された、処理ユニット102、画像キャプチャデバイス104、オーディオ記録デバイス106、センサユニット108、およびビデオ出力ユニット110を含む。通信ネットワークは、本開示の範囲を限定することなく、任意の適切な有線ネットワーク、無線ネットワーク、これらの組合せまたは任意の他の従来のネットワークとしてもよい。いくつかの例は、ローカルエリアネットワーク(LAN)、無線LAN接続、インターネット接続、二地点間接続、または他のネットワーク接続およびこれらの組合せを含んでもよい。一例において、ネットワークは、モバイル通信ネットワーク、例えば、2G、3G、4G、または5Gのモバイル通信ネットワークを含んでもよい。通信ネットワークは、1つまたは複数の他のネットワークに結合され、それによって、より多数のデバイス間の結合を提供し得る。そのようなことは、例えば、ネットワークがインターネットを通じて共に結合される場合にあり得る。
画像キャプチャデバイス104は、画像フレーム内の人間、動物、およびモノなどの様々なエンティティのアクションを認識するために、ターゲット環境101の1つまたは複数の画像およびビデオをリアルタイムでキャプチャし、キャプチャされたデータを処理ユニット102へ送信するように構成される。画像キャプチャデバイス104の例は、360°カメラ、閉回路テレビジョン(CCTV:Closed-Circuit Television)カメラ、高解像度(HD)カメラ、非HDカメラ、携帯型カメラ、交通カメラ、警察車両カメラ、および無人航空機(UAV:unmanned aerial vehicle)上のカメラを含むが、これらに限定されない。
The
オーディオ記録デバイス106は、ターゲット環境101からのオーディオデータを記録し、記録されたオーディオデータを処理ユニット102へ送信するように構成される。オーディオ記録デバイス106の例は、ダイナミックマイクロフォン、コンデンサーマイクロフォン、圧電マイクロフォンまたはリボンマイクロフォンを含むが、これらに限定されない。
センサユニット108は、ターゲット環境101内のイベントまたは変化を検出し、検出された情報を処理ユニット102へ送信するように構成される。本開示の1つの実施形態において、ターゲット環境101は、陸軍基地/海軍基地であり、センサユニット108は、基地に対する攻撃を検出するために基地に設置された1つまたは複数のレーダを含み得る。別の実施形態において、ターゲット環境101は、1つまたは複数の住宅/商業ビルであり、センサユニット108は、ビルにおける、またはビルの近くの自然災害の発生を検出し、検出された情報を処理ユニット102へ送信するためにビルに設置されたセンサを含んでもよい。また別の実施形態において、ターゲット環境101は、空港、ショッピング(もしくは他の)モール、または他の同様のロケーションのセキュリティチェックポイントエリアであり、センサユニット108は、その箇所における人々の手荷物、バッグ、衣類または他の態様における疑わしいアイテムの存在を検出し、検出された情報を処理ユニット102へ送信するために設置されるX線デバイスを含んでもよい。
The
処理ユニット102は、画像キャプチャデバイス104、オーディオ記録デバイス106、センサユニット108、およびビデオ出力ユニット110の動作を制御する中央制御ユニットである。処理ユニット102は、画像キャプチャデバイス104、オーディオ記録デバイス106、およびセンサユニット108から受け取られる入力データを処理し、処理されたデータに基づいて出力情報を生成し、ビデオ出力ユニット110を通じて表示面112上に出力情報を表示するように構成される。本開示の一実施形態において、出力情報は、ターゲット環境101についての警報、通知、宣伝、命令、および訓練ビデオを含むが、これらに限定されない、予め定義されたビデオ出力およびオーディオ出力を含み得る。本開示の一実施形態において、ビデオ出力ユニット110は、プロジェクターを含んでもよく、表示面112は、プロジェクターからの投影画像を表示するための白色の投影画面、灰色の投影画面、または白色の壁を含み得る。本開示の一実施形態において、処理ユニット102は、ビデオ出力ユニット110の焦点および方向を制御し、ビデオ出力ユニット110によって表示されるコンテンツも制御するように構成される。本開示の別の実施形態において、ビデオ出力ユニット110は、非投影ディスプレイ、例えば、発光ダイオード(LED)、液晶ディスプレイ(LCD)、および有機発光ダイオード(OLED)などを含んでも良い。
本開示の一実施形態において、画像キャプチャデバイス104は、表示面112に表示される画像/ビデオデータをキャプチャし、オーディオ記録デバイス106は、表示面112上に再生されているオーディオデータを記録する。処理ユニット102は、フィードバックデータを使用して、表示面112上に表示される出力情報の品質を改善して、ユーザフィードバックを強化する。
In one embodiment of the present disclosure,
本開示の一実施形態において、処理ユニット102は、ターゲット環境101内の正確なロケーションへ視覚情報を案内するための能力を有する人工知能(AI)プラットフォームを含む。処理ユニット102は、ローカルコンピューティングデバイスにおいて、またはリモート処理サーバにおいて局所的に実装され得る。本開示の文脈において、処理ユニット102は、AIベースのプロセッサ、ビデオ/画像データを処理するためのグラフィック処理ユニット(GPU)、1つまたは複数の命令を記憶するためのメモリを含み得る。本開示の全体にわたって、「AIベースのプロセッサ」という用語は、対応するメモリ内に記憶された命令に応答し、命令を処理するように動作可能な計算要素に関連する。任意選択で、AIベースのプロセッサは、マイクロプロセッサ、マイクロコントローラ、複合命令セットコンピューティング(CISC:complex instruction set computing)マイクロプロセッサ、縮小命令セット(RISC:reduced instruction set)マイクロプロセッサ、超長命令語(VLIM:very long instruction word)マイクロプロセッサ、または任意の他のタイプの処理回路を含むが、これらに限定されない。処理ユニット102は、対応するAIソフトウェアによって作成される動的な出力を用いてプログラムおよび拡張される、予め定義された出力の初期セットを含み得る。
In one embodiment of the present disclosure, processing
図2は、本開示の一実施形態による、(図1に示されるような)画像キャプチャデバイス104によってキャプチャされた画像フレーム202を処理するための例示的な動作の図である。画像フレーム202は、画像キャプチャデバイス104の360°レンズによってキャプチャされた、円形の形状である。(図1に示されるような)処理ユニット102は、画像フレーム202を受け取り、画像フレーム202の平滑化された表現を作成して、平滑化された画像204を生成する。本開示の一実施形態において、(図1に示されるような)処理ユニット102は、平滑化された画像204を作成する間にフィッシュアイ歪みを補償し、平滑化された画像204のグリッドビュー画像206を生成する。
FIG. 2 is a diagram of exemplary operations for processing image frames 202 captured by image capture device 104 (as shown in FIG. 1), according to one embodiment of the present disclosure.
グリッドビュー画像206は、(図1に示されるような)ターゲット環境101を参照したライブグリッドを含む。1つの実装において、グリッド特性(すなわち、行の数字および列の数字)は、ユーザによって設定可能である。別の実装において、グリッド特性は、動的に可変である。この場合において、グリッド特性は、画像キャプチャデバイス104の視界において検出された動きを分析し、シーン内の各個別の要素の位置がグリッド参照を使用して区別され得ることを確実にする処理ユニット102によって決定される。次いで、グリッド参照は、ターゲット環境101内で発生しているアクティビティと、そのアクティビティのロケーションとについて、処理ユニット102に通知するために使用される。
一例において、ターゲット環境101がショッピングセンターである場合、画像204は、人々で通常混雑しているロケーションを示してもよい。処理ユニット102は、この情報を使用して、対応するロケーションにおいて予め定義されたビデオ宣伝を表示して、最大数の人々の注意を宣伝に向け得る。別の例において、ターゲット環境101が、空港、ショッピング(もしくは他の)モール、または別の同様のロケーションのセキュリティ検査エリアである場合、画像204は、1つまたは複数の禁止されている疑いのある品物またはアイテムの存在を明らかにするX線画像に関係し得る。処理ユニット102は、この情報を使用して、関連するセキュリティ管理者に対してオーディオ/ビデオ警報を生成し得る。ビデオ/画像データの表示面上への投影は、図3Aを参照して詳細に解説されている。
In one example, if
図3Aは、本開示の一実施形態による、(処理ユニット102と同様の)処理ユニット301によって生成された予め定義された画像/ビデオデータを(表示面112と同様の)表示面310上に投影するための(ビデオ出力ユニット110と同様の)例示的なビデオ出力ユニット300の図である。 FIG. 3A illustrates projection of predefined image/video data generated by processing unit 301 (similar to processing unit 102) onto display surface 310 (similar to display surface 112), according to one embodiment of the present disclosure. 3A is a diagram of an exemplary video output unit 300 (similar to video output unit 110) for
ビデオ出力ユニット300は、光源302、レンズ304、電動焦点システム306、および電動ミラー308を含む。光源302の例は、レーザ、ランプまたはLED(発光ダイオード)を含み得るが、これらに限定されない。レンズ304は、光学およびデジタルズームならびに合焦能力を有するレンズを含み得る。電動焦点システム306は、レンズ304によって反射される、光源302からの光を、電動ミラー308の方へ案内するように構成される。電動ミラー308は、垂直軸および水平軸の各々において移動されて、予め定義された画像/ビデオを異なる傾き/位置で表示面310上に投影するように構成される。本開示の一実施形態において、電動ミラー308は、予め定義された画像/ビデオを最大で90°回転させて、予め定義された画像を表示面310上の予め定義されたロケーションにおいて表示するように構成される。電動ミラー308を回転させるための機構は、図3Bを参照して詳細に解説される。
図3Bは、ミラー平面内の垂直軸および水平軸を中心に電動ミラー308を回転させるための機構312を例示する。機構312は、シーリングに固定され、電動ミラー308に結合されたモータ314と、モーションロッド317が水平姿勢にとどまることを確実にする物理的フック315とを含む。電動ミラー308は、シーリングに対して固定して取り付けられている。したがって、電動ミラー308に対する法線軸は固定されており、それによって、深さ軸に沿ったその動きを制限する。
FIG. 3B illustrates a
図3Cは、モータ314が、水平方向および垂直方向における電動ミラー308の回転を制御するように適合された、2つの電気的に制御されるレバー316aおよび316bを含み得ることを例示する。
FIG. 3C illustrates that
図3Bを再び参照すると、モータ314は、(処理ユニット102と同様の)処理ユニット301によってリアルタイムで制御され、その結果、アクティビティが、対応するセンサユニットによって処理ユニット318へ中継される場合、処理ユニット301は、関連するビデオ/画像出力を生成し、モータ314を制御して、ビデオ/画像出力を表示面310上の正確なロケーションへ案内する。本開示の文脈において、電動ミラー308は、処理ユニット318によって指示されるように360°回転するように構成される。
Referring again to FIG. 3B,
図1を再び参照すると、画像キャプチャデバイス104は、出力面112上に表示されるビデオ/画像データをキャプチャし、ビデオ/画像データをフィードバックデータとして処理ユニット102へ提供するように構成される。例えば、投影が十分に鮮明でない場合、処理ユニット102は、ビデオ出力ユニット110の合焦レンズを調整して、出力画像/ビデオデータの品質を改善し得る。
Referring back to FIG. 1,
本開示の一実施形態において、過去の経験およびソフトウェア学習に基づいて、処理ユニット102は、望ましくないアクティビティを未然に防ぎ、防止するために、そのような望ましくないアクティビティが起きそうな場合を予測するように構成される。また、処理ユニット102は、「もしも(What If)」のシナリオ分析において使用されるべきリスクプロフィールを構築し得る。例えば、処理ユニット102は、あるプロセスが正確に追跡されていないことを検出し、このことをユーザに対して強調し得る。ただし、処理ユニット102は、このシナリオを、潜在的なネガティブなリスクと潜在的なポジティブなリスクとの両方として同時に見ることがある。処理ユニット102は、両方のシナリオの予想される結果を予測し得、それが、プロセスの逸脱から予期しない利益が生じることが分かる場合、それは、プロセスを自動的に変化させて、変化を改善されたプロセスに組み込むことができる。これは、システム全体にわたって変化を強制する前に結果を観察するために、スタンドアロンのステーション上で行われることが可能である。処理ユニット102は、何らかの予期せぬ理由で元の状態に戻る必要がある場合、過去のプロセスを記憶し得る。
In one embodiment of the present disclosure, based on past experience and software learning, the
図4は、本開示による、ターゲット環境内の1つまたは複数のアクティビティに基づいて、表示面上にビデオデータを自動的に表示するための方法400を例示する例示的なフローチャートである。本方法は、論理的なフロー図におけるステップの集合として描かれており、論理的なフロー図は、ハードウェア、ソフトウェア、またはこれらの組合せにおいて実装され得るステップのシーケンスを表す。
FIG. 4 is an exemplary flowchart illustrating a
ステップ402において、ターゲット環境内で発生する1つまたは複数のアクティビティの認識を可能にするために、ターゲット環境の画像およびビデオデータがリアルタイムでキャプチャされる。画像およびビデオデータは、360°カメラ、閉回路テレビジョン(CCTV)カメラ、高解像度(HD)カメラ、非HDカメラ、携帯型カメラ、交通カメラ、警察車両カメラ、および無人航空機(UAV)に搭載されたカメラのうちの少なくとも1つを使用してキャプチャされ得る。
At
ステップ404において、画像およびビデオデータが処理され、処理されたデータに基づいて、出力情報が生成される。本開示の一実施形態によれば、ビデオ/画像データは、グラフィック処理ユニット(GPU)を使用して処理される。本開示の一実施形態において、出力情報は、警報、通知、宣伝、命令、および訓練ビデオのうちの少なくとも1つを含む、予め定義されたビデオおよびオーディオデータを含む。さらに、本開示の一実施形態によれば、出力情報は、グリッドビュー画像に基づいて生成される。グリッドビュー画像は、円形の入力画像フレームを受け取り、円形の入力画像フレームの平滑化された表現を作成して、平滑化された表現のグリッドビュー画像を生成することによって生成される。さらに、グリッドビュー画像は、円形の入力画像フレーム内の1つまたは複数のエンティティの位置に関する情報を提供する。
At
ステップ406において、ビデオ出力ユニットによって、出力情報が表示面上に表示される。本開示の一実施形態において、ビデオ出力ユニットは、360°回転するように構成される。本開示の一実施形態において、ビデオ出力ユニットは、プロジェクターを含み、表示面は、投影画像を表示するための白色の投影画面、灰色の投影画面、および白色の壁のうちの少なくとも1つを含む。
At
ステップ408において、ビデオ出力ユニットの回転角度が、キャプチャされた画像およびビデオデータに基づいて制御される。本開示の一実施形態において、ビデオ出力ユニットは、光源、レンズ、電動ミラーおよび電動焦点システムを含む。電動ミラーは、水平方向および垂直方向に移動されて、表示面の1つまたは複数の位置上に予め定義された画像を投影するように構成されており、電動ミラーの移動は、回転角度に基づいて、1つまたは複数の電気的に制御されるレバーによって制御される。さらに、電動焦点システムは、レンズによって反射された光源からの光を、電動ミラーの方へ案内するように構成される。
At
ステップ410において、キャプチャされた出力情報は、表示面上にリアルタイムで表示され、フィードバックデータが生成されて、ビデオ出力ユニットの焦点および方向が制御され、ビデオ出力ユニット上に表示される出力情報がさらに制御される。一例において、投影が十分に鮮明でない場合、ビデオ出力ユニットの合焦レンズが調整されて、表示される出力情報の品質が改善される。これは、投影画像とカメラ入力との間にフィードバックループを有することによって達成される。AIソフトウェアは、焦点外画像を検出し、訂正信号をレンズへ送って、画像品質を改善し得る。これは、表示面が移動したり、または形状を変化させたりする可能性があるので、進行中のループである。
At
上記において説明された本開示の実施形態に対する変形例は、添付の特許請求の範囲によって定義されるような本開示の範囲から逸脱することなく、可能である。説明し、特許請求するために使用されている「含む」、「備える」、「組み込む」、「から成る」、「有する」、「である」などの表現は、本開示が非排他的な手法で解釈されるように、すなわち、明示的に説明されていないアイテム、構成要素または要素も存在することを許容することを意図されている。単数形への言及は、複数形に関連するようにも解釈されるべきである。 Variations to the embodiments of the disclosure described above are possible without departing from the scope of the disclosure as defined by the appended claims. The terms "include," "comprise," "incorporate," "consist of," "have," "is," and the like are used to describe and claim the disclosure in a non-exclusive manner. is intended to be interpreted as such, i.e., to allow the presence of items, components or elements not explicitly described. References to the singular should also be construed to refer to the plural.
Claims (19)
1つまたは複数のアクティビティを認識するために、前記ターゲット環境の画像およびビデオデータをリアルタイムでキャプチャするように構成された画像キャプチャデバイスと、
前記画像およびビデオデータを処理して、前記出力情報を表示するためのロケーションを決定し、前記出力情報のコンテンツを決定するように構成された処理ユニットと、
前記表示面上に前記出力情報を表示するように構成されたビデオ出力ユニットであって、前記ビデオ出力ユニットは、360°回転するように構成され、前記ビデオ出力ユニットの回転角度は、前記処理ユニットによって制御される、ビデオ出力ユニットと
を備え、
前記画像キャプチャデバイスは、前記表示面上に表示される前記出力情報をリアルタイムでキャプチャし、フィードバックデータを前記処理ユニットへリアルタイムで提供して、前記処理ユニットが、焦点、方向、および前記ビデオ出力ユニットに表示される前記出力情報の前記コンテンツを制御することを可能にするようにさらに構成される、システム。 A system for automatically displaying output information on a display surface based on one or more activities within a target environment, the system comprising:
an image capture device configured to capture image and video data of the target environment in real-time to perceive one or more activities;
a processing unit configured to process the image and video data to determine a location for displaying the output information and to determine the content of the output information;
a video output unit configured to display the output information on the display surface, the video output unit configured to rotate 360°, the rotation angle of the video output unit a video output unit controlled by
The image capture device captures in real-time the output information displayed on the display surface and provides feedback data to the processing unit in real-time so that the processing unit can determine focus, orientation, and the video output unit. The system is further configured to allow controlling the content of the output information displayed in the system.
光源と、
レンズと、
水平方向および垂直方向に移動されて、前記表示面の1つまたは複数の位置上に予め定義された画像を投影するように構成された電動ミラーであって、前記電動ミラーの移動は、前記処理ユニットによって動作させられる1つまたは複数の電気的に制御されるレバーによって制御される、電動ミラーと、
前記レンズによって反射された前記光源からの光を、前記電動ミラーの方へ案内するように構成された電動焦点システムと
を含む請求項1に記載のシステム。 The video output unit is
a light source;
a lens;
A motorized mirror configured to be moved horizontally and vertically to project a predefined image onto one or more locations of said display surface, wherein movement of said motorized mirror is associated with said process. motorized mirrors controlled by one or more electrically controlled levers operated by the unit;
and a motorized focusing system configured to direct light from the light source reflected by the lens toward the motorized mirror.
1つまたは複数のアクティビティを認識するために、前記ターゲット環境の画像およびビデオデータをリアルタイムでキャプチャすることと、
前記画像およびビデオデータを処理して、前記出力情報を表示するためのロケーションを決定し、前記出力情報のコンテンツを決定することと、
ビデオ出力ユニットによって、前記表示面上に前記出力情報を表示することであって、前記ビデオ出力ユニットは、360°回転するように構成される、ことと、
前記キャプチャされた画像およびビデオデータに基づいて、前記ビデオ出力ユニットの回転角度を制御することと、
前記表示面上に表示される前記出力情報をリアルタイムでキャプチャし、フィードバックデータを生成して、焦点、方向、および前記ビデオ出力ユニット上に表示される前記出力情報の前記コンテンツを制御することと
を含む、方法。 A method for automatically displaying output information on a display surface based on one or more activities in a target environment, the method comprising:
capturing image and video data of the target environment in real time to recognize one or more activities;
processing the image and video data to determine a location for displaying the output information and determining content of the output information;
displaying the output information on the display surface by a video output unit, the video output unit being configured to rotate 360°;
controlling a rotation angle of the video output unit based on the captured image and video data;
capturing in real time the output information displayed on the display surface and generating feedback data to control focus, orientation, and the content of the output information displayed on the video output unit; including, method.
前記出力情報のオーディオデータをフィードバックデータとして記録し、前記フィードバックデータを提供することと
をさらに含む請求項10に記載の方法。 recording audio data of the target environment and transmitting the recorded audio data;
11. The method of claim 10, further comprising recording audio data of said output information as feedback data and providing said feedback data.
光源と、
レンズと、
水平方向および垂直方向に移動されて、前記表示面の1つまたは複数の位置上に予め定義された画像を投影するように構成された電動ミラーであって、前記電動ミラーの移動は、1つまたは複数の電気的に制御されるレバーによって制御される、電動ミラーと、
前記レンズによって反射された前記光源からの光を、前記電動ミラーの方へ案内するように構成された電動焦点システムと
を含む請求項10に記載の方法。 The video output unit is
a light source;
a lens;
A motorized mirror configured to be moved horizontally and vertically to project a predefined image onto one or more locations of the display surface, wherein movement of the motorized mirror is performed by one or a motorized mirror controlled by a plurality of electrically controlled levers;
and a motorized focus system configured to direct light from the light source reflected by the lens toward the motorized mirror.
1つまたは複数のアクティビティを認識するために、前記ターゲット環境の画像およびビデオデータをリアルタイムでキャプチャすることと、
前記画像およびビデオデータを処理して、前記出力情報を表示するためのロケーションを決定し、前記出力情報のコンテンツを決定することと、
ビデオ出力ユニットによって、前記表示面上に前記出力情報を表示することであって、前記ビデオ出力ユニットは、360°回転するように構成される、表示することと、
前記キャプチャされた画像およびビデオデータに基づいて、前記ビデオ出力ユニットの回転角度を制御することと、
前記表示面上に表示される前記出力情報をリアルタイムでキャプチャし、フィードバックデータを生成して、焦点、方向、および前記ビデオ出力ユニット上に表示される前記出力情報の前記コンテンツを制御することと
を行わせる、コンピュータプログラム可能な製品。 A computer programmable product for automatically displaying output information on a display surface based on one or more activities within a target environment, said computer programmable product comprising a set of instructions. , the set of instructions, when executed by a processor, causes the processor to:
capturing image and video data of the target environment in real time to recognize one or more activities;
processing the image and video data to determine a location for displaying the output information and determining content of the output information;
displaying the output information on the display surface by a video output unit, the video output unit being configured to rotate 360°;
controlling a rotation angle of the video output unit based on the captured image and video data;
capturing in real time the output information displayed on the display surface and generating feedback data to control focus, orientation, and the content of the output information displayed on the video output unit; A computer-programmable product that causes
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/722,073 | 2019-12-20 | ||
US16/722,073 US11146765B2 (en) | 2019-12-20 | 2019-12-20 | System and method for displaying video data in a target environment |
PCT/IB2020/060059 WO2021123945A1 (en) | 2019-12-20 | 2020-10-27 | System and method for displaying video in a target environment |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023506990A true JP2023506990A (en) | 2023-02-20 |
Family
ID=73060032
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022537577A Pending JP2023506990A (en) | 2019-12-20 | 2020-10-27 | Systems and methods for displaying video data within a target environment |
Country Status (11)
Country | Link |
---|---|
US (1) | US11146765B2 (en) |
EP (1) | EP4088244A1 (en) |
JP (1) | JP2023506990A (en) |
KR (1) | KR20220101159A (en) |
CN (1) | CN114761984A (en) |
AU (1) | AU2020407533B2 (en) |
BR (1) | BR112022009575A2 (en) |
CA (1) | CA3159848A1 (en) |
CO (1) | CO2022008236A2 (en) |
MX (1) | MX2022007340A (en) |
WO (1) | WO2021123945A1 (en) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003066538A (en) * | 2001-08-23 | 2003-03-05 | Taiyo Kogyo Corp | Display device using film material |
JP2009008966A (en) * | 2007-06-29 | 2009-01-15 | Marubeni Corp | Electronic advertisement output device |
US20090115915A1 (en) * | 2006-08-09 | 2009-05-07 | Fotonation Vision Limited | Camera Based Feedback Loop Calibration of a Projection Device |
JP2014063015A (en) * | 2012-09-21 | 2014-04-10 | Seiko Epson Corp | Projector |
CN104537616A (en) * | 2014-12-20 | 2015-04-22 | 中国科学院西安光学精密机械研究所 | Correction Method of Fisheye Image Distortion |
WO2016103560A1 (en) * | 2014-12-25 | 2016-06-30 | パナソニックIpマネジメント株式会社 | Projector device |
JP2017090901A (en) * | 2015-11-10 | 2017-05-25 | パナソニックIpマネジメント株式会社 | Projector system |
JP2017163431A (en) * | 2016-03-10 | 2017-09-14 | パナソニックIpマネジメント株式会社 | Projection apparatus |
WO2017163928A1 (en) * | 2016-03-24 | 2017-09-28 | ソニー株式会社 | Image processing device and method |
WO2019064608A1 (en) * | 2017-10-01 | 2019-04-04 | 裕之 本地川 | Projection direction varying device and projection device |
JP2019510312A (en) * | 2016-03-15 | 2019-04-11 | コノート、エレクトロニクス、リミテッドConnaught Electronics Ltd. | Method, computer device, driver assistance system, and motor vehicle for motion estimation between two images of an environmental region of a motor vehicle |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7164117B2 (en) * | 1992-05-05 | 2007-01-16 | Automotive Technologies International, Inc. | Vehicular restraint system control system and method using multiple optical imagers |
US6099522A (en) * | 1989-02-06 | 2000-08-08 | Visx Inc. | Automated laser workstation for high precision surgical and industrial interventions |
US6431711B1 (en) * | 2000-12-06 | 2002-08-13 | International Business Machines Corporation | Multiple-surface display projector with interactive input capability |
US20030126013A1 (en) * | 2001-12-28 | 2003-07-03 | Shand Mark Alexander | Viewer-targeted display system and method |
US8690358B2 (en) * | 2011-06-27 | 2014-04-08 | Microsoft Corporation | Video projection device for mobile device having a first projection surface integral with a surface of the mobile device |
US20130050198A1 (en) * | 2011-08-25 | 2013-02-28 | Innovare Solutions, LLC | Multi-directional display |
JP2014126693A (en) * | 2012-12-26 | 2014-07-07 | Funai Electric Co Ltd | Image projection apparatus, and image display apparatus |
US20170038942A1 (en) * | 2015-08-07 | 2017-02-09 | Vrideo | Playback initialization tool for panoramic videos |
CN109475294B (en) * | 2016-05-06 | 2022-08-19 | 斯坦福大学托管董事会 | Mobile and wearable video capture and feedback platform for treating mental disorders |
US10537701B2 (en) | 2016-07-05 | 2020-01-21 | International Business Machines Corporation | Alleviating movement disorder conditions using unmanned aerial vehicles |
GB201709199D0 (en) * | 2017-06-09 | 2017-07-26 | Delamont Dean Lindsay | IR mixed reality and augmented reality gaming system |
WO2019133792A1 (en) * | 2017-12-30 | 2019-07-04 | Infinite Kingdoms, LLC | Smart entertainment technology attractions |
DK201870347A1 (en) * | 2018-01-24 | 2019-10-08 | Apple Inc. | Devices, Methods, and Graphical User Interfaces for System-Wide Behavior for 3D Models |
-
2019
- 2019-12-20 US US16/722,073 patent/US11146765B2/en active Active
-
2020
- 2020-10-27 MX MX2022007340A patent/MX2022007340A/en unknown
- 2020-10-27 WO PCT/IB2020/060059 patent/WO2021123945A1/en unknown
- 2020-10-27 BR BR112022009575A patent/BR112022009575A2/en not_active Application Discontinuation
- 2020-10-27 AU AU2020407533A patent/AU2020407533B2/en active Active
- 2020-10-27 CN CN202080084294.4A patent/CN114761984A/en active Pending
- 2020-10-27 JP JP2022537577A patent/JP2023506990A/en active Pending
- 2020-10-27 KR KR1020227020257A patent/KR20220101159A/en not_active Application Discontinuation
- 2020-10-27 CA CA3159848A patent/CA3159848A1/en active Pending
- 2020-10-27 EP EP20801031.4A patent/EP4088244A1/en active Pending
-
2022
- 2022-06-13 CO CONC2022/0008236A patent/CO2022008236A2/en unknown
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003066538A (en) * | 2001-08-23 | 2003-03-05 | Taiyo Kogyo Corp | Display device using film material |
US20090115915A1 (en) * | 2006-08-09 | 2009-05-07 | Fotonation Vision Limited | Camera Based Feedback Loop Calibration of a Projection Device |
JP2009008966A (en) * | 2007-06-29 | 2009-01-15 | Marubeni Corp | Electronic advertisement output device |
JP2014063015A (en) * | 2012-09-21 | 2014-04-10 | Seiko Epson Corp | Projector |
CN104537616A (en) * | 2014-12-20 | 2015-04-22 | 中国科学院西安光学精密机械研究所 | Correction Method of Fisheye Image Distortion |
WO2016103560A1 (en) * | 2014-12-25 | 2016-06-30 | パナソニックIpマネジメント株式会社 | Projector device |
JP2017090901A (en) * | 2015-11-10 | 2017-05-25 | パナソニックIpマネジメント株式会社 | Projector system |
JP2017163431A (en) * | 2016-03-10 | 2017-09-14 | パナソニックIpマネジメント株式会社 | Projection apparatus |
JP2019510312A (en) * | 2016-03-15 | 2019-04-11 | コノート、エレクトロニクス、リミテッドConnaught Electronics Ltd. | Method, computer device, driver assistance system, and motor vehicle for motion estimation between two images of an environmental region of a motor vehicle |
WO2017163928A1 (en) * | 2016-03-24 | 2017-09-28 | ソニー株式会社 | Image processing device and method |
WO2019064608A1 (en) * | 2017-10-01 | 2019-04-04 | 裕之 本地川 | Projection direction varying device and projection device |
Also Published As
Publication number | Publication date |
---|---|
US11146765B2 (en) | 2021-10-12 |
AU2020407533B2 (en) | 2023-10-05 |
AU2020407533A1 (en) | 2022-06-02 |
KR20220101159A (en) | 2022-07-19 |
CN114761984A (en) | 2022-07-15 |
CO2022008236A2 (en) | 2022-07-08 |
EP4088244A1 (en) | 2022-11-16 |
US20210195149A1 (en) | 2021-06-24 |
CA3159848A1 (en) | 2021-06-24 |
MX2022007340A (en) | 2022-07-13 |
BR112022009575A2 (en) | 2022-08-02 |
WO2021123945A1 (en) | 2021-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2553924B1 (en) | Effortless navigation across cameras and cooperative control of cameras | |
US20160019427A1 (en) | Video surveillence system for detecting firearms | |
Fan et al. | Heterogeneous information fusion and visualization for a large-scale intelligent video surveillance system | |
US9569669B2 (en) | Centralized video surveillance data in head mounted device | |
CN101119482B (en) | Overall view monitoring method and apparatus | |
US9049348B1 (en) | Video analytics for simulating the motion tracking functionality of a surveillance camera | |
US7825792B2 (en) | Systems and methods for distributed monitoring of remote sites | |
WO2016157327A1 (en) | Video surveillance system and video surveillance method | |
AU2014202889B2 (en) | Controlling movement of a camera to autonomously track a mobile object | |
KR101983852B1 (en) | System for providing exhibition service based on exhibition space analysis considering visitor's viewpoint | |
US20220188545A1 (en) | Augmented reality enhanced situational awareness | |
JP2009507295A (en) | Object tracking and alarm | |
KR20110140109A (en) | Content protection using automatically selectable display surfaces | |
CN110536074B (en) | Intelligent inspection system and inspection method | |
US10979676B1 (en) | Adjusting the presented field of view in transmitted data | |
WO2020151425A1 (en) | Switching display method and system for 3d real scene visual monitoring | |
US11354885B1 (en) | Image data and simulated illumination maps | |
JP2018181159A (en) | Security system, crime prevention method, and robot | |
US20060072010A1 (en) | Target property maps for surveillance systems | |
JP6912881B2 (en) | Information processing equipment, information processing methods and programs | |
JP2005033570A (en) | Method and system for providing mobile body image | |
JP2023506990A (en) | Systems and methods for displaying video data within a target environment | |
JP2019139516A (en) | Movement control system and movement control method for robot | |
US20230324906A1 (en) | Systems and methods for remote viewing of self-driving vehicles | |
US9111237B2 (en) | Evaluating an effectiveness of a monitoring system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220617 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230724 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230815 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240501 |