JP2024016623A - 画像伝達システム、画像伝達方法 - Google Patents
画像伝達システム、画像伝達方法 Download PDFInfo
- Publication number
- JP2024016623A JP2024016623A JP2022118877A JP2022118877A JP2024016623A JP 2024016623 A JP2024016623 A JP 2024016623A JP 2022118877 A JP2022118877 A JP 2022118877A JP 2022118877 A JP2022118877 A JP 2022118877A JP 2024016623 A JP2024016623 A JP 2024016623A
- Authority
- JP
- Japan
- Prior art keywords
- person
- image
- area
- silhouette
- transmission system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000005540 biological transmission Effects 0.000 title claims abstract description 113
- 238000000034 method Methods 0.000 title claims abstract description 80
- 238000005516 engineering process Methods 0.000 abstract description 3
- 238000003384 imaging method Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 230000002457 bidirectional effect Effects 0.000 description 5
- 238000009434 installation Methods 0.000 description 4
- 230000008921 facial expression Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000002269 spontaneous effect Effects 0.000 description 2
- 230000008451 emotion Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/167—Synchronising or controlling image signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
- G09G3/002—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/194—Transmission of image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/363—Image reproducers using image projection screens
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0096—Synchronisation or controlling aspects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W88/00—Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
- H04W88/02—Terminal devices
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
【課題】画像を取得される人物のプライバシーに配慮しながら、あるエリアにいる人物に対して、異なるエリアにいる人物との繋がりを感じさせ、安心感や連帯感を与えることのできる技術を提供すること。【解決手段】画像伝達システムは、第1エリアに存在する第1人物を第1カメラで撮影して第1画像を取得する処理と、第1人物のシルエットを表す第1人物シルエット画像を生成する処理と、第1エリアと異なる第2エリアに設置された第2物体に第1人物シルエット画像を投影或いは表示する処理と、第1画像に基づいて、第1人物が第1トリガ動作を行ったか否か判定する処理と、第1人物が第1トリガ動作を行った場合、第1人物シルエット画像よりも第1人物そのものの画像に近い第1人物詳細画像を第2物体に投影或いは表示する処理と、を実行する。【選択図】図5
Description
本開示は、画像伝達システム及び画像伝達方法に関する。
特許文献1は、ネットワークカメラを用いて特定区域の犯罪や事故の発生に対応し、違法行為や不法行為等についての情報を収集するための情報収集方法を開示している。特許文献1に開示の情報収集方法では、商店街の通りに2以上のネットワークカメラが設置され、それぞれのカメラごとに定められた視界エリア内が撮影されて画像が保存される。そして、違法行為者や不法行為者の行為現場までの侵入経路や退出経路が撮影された記録画面が選択され、選択された画面が画像情報として記憶媒体に記憶される。記憶媒体は警察等に提出され、事件解決に役立てることができる。
特許文献2は、コンテンツを同時視聴しているユーザ同士が円滑なコミュニケーションをとれるようにすることを目的とした表示制御装置を開示している。カメラやマイク等によって取得されたあるユーザの情報が別のユーザの元に出力され、ユーザは、ユーザ同士で賑わっているような感覚を得ることができる。
なお、本開示の技術分野における出願時の技術レベルを示す文献としては、上記特許文献1及び特許文献2の他にも下記の特許文献3乃至特許文献6を例示することができる。
ネットワークに接続されたカメラや表示装置を、人と人との繋がり感やコミュニケーションの向上のために用いることを考える。ネットワークに接続されたカメラや表示装置を用いて、ある場所にいる人物の画像を別の場所に映し出すことによって、繋がり感を演出することは可能である。ただし、このとき、画像を取得される人物のプライバシーへの配慮も重要となる。
本開示の目的は、画像を取得される人物のプライバシーに配慮しながら、あるエリアにいる人物に対して、異なるエリアにいる人物との繋がりを感じさせ、安心感や連帯感を与えることのできる技術を提供することにある。
第1の観点は、画像伝達システムに関連する。
画像伝達システムは、1又は複数のプロセッサを備える。
1又は複数のプロセッサは、
第1エリアに存在する第1人物を第1カメラで撮影して第1画像を取得する処理と、
第1人物のシルエットを表す第1人物シルエット画像を生成する処理と、
第1エリアと異なる第2エリアに設置された第2物体に第1人物シルエット画像を投影或いは表示する処理と、
第1画像に基づいて、第1人物が第1トリガ動作を行ったか否か判定する処理と、
第1人物が第1トリガ動作を行った場合、第1人物シルエット画像よりも第1人物そのものの画像に近い第1人物詳細画像を第2物体に投影或いは表示する処理と、
を実行するように構成される。
画像伝達システムは、1又は複数のプロセッサを備える。
1又は複数のプロセッサは、
第1エリアに存在する第1人物を第1カメラで撮影して第1画像を取得する処理と、
第1人物のシルエットを表す第1人物シルエット画像を生成する処理と、
第1エリアと異なる第2エリアに設置された第2物体に第1人物シルエット画像を投影或いは表示する処理と、
第1画像に基づいて、第1人物が第1トリガ動作を行ったか否か判定する処理と、
第1人物が第1トリガ動作を行った場合、第1人物シルエット画像よりも第1人物そのものの画像に近い第1人物詳細画像を第2物体に投影或いは表示する処理と、
を実行するように構成される。
第2の観点は、画像伝達方法に関する。
画像伝達方法は、
第1エリアに存在する第1カメラにより第1画像を取得する処理と、
第1画像に含まれる第1人物のシルエットを表す第1人物シルエット画像を生成する処理と、
第1エリアと異なる第2エリアに設置された第2物体に第1人物シルエット画像を投影或いは表示する処理と
第1画像に基づいて、第1人物が第1トリガ動作を行ったか否か判定する処理と、
第1人物が第1トリガ動作を行った場合、第1人物シルエット画像よりも第1人物そのものの画像に近い第1人物詳細画像を第2物体に投影あるいは表示する処理と、
を含む。
画像伝達方法は、
第1エリアに存在する第1カメラにより第1画像を取得する処理と、
第1画像に含まれる第1人物のシルエットを表す第1人物シルエット画像を生成する処理と、
第1エリアと異なる第2エリアに設置された第2物体に第1人物シルエット画像を投影或いは表示する処理と
第1画像に基づいて、第1人物が第1トリガ動作を行ったか否か判定する処理と、
第1人物が第1トリガ動作を行った場合、第1人物シルエット画像よりも第1人物そのものの画像に近い第1人物詳細画像を第2物体に投影あるいは表示する処理と、
を含む。
本開示の技術によれば、画像を取得される人物のプライバシーに配慮しながら、あるエリアにいる人物に対して、異なるエリアにいる人物との繋がりを感じさせ、安心感や連帯感を与えることができる。
添付図面を参照して、本開示の実施の形態を説明する。
1.概要
図1は、本実施の形態に係る画像伝達システム100の最小の構成を示している。画像伝達システム100は、画像処理装置110、投影/表示装置120を含む。
図1は、本実施の形態に係る画像伝達システム100の最小の構成を示している。画像伝達システム100は、画像処理装置110、投影/表示装置120を含む。
画像処理装置110は、カメラ等から取得される画像を処理して、或いは予め取得されるデータを処理して、投影/表示装置120で投影或いは表示するための種々の画像を生成する装置である。生成される種々の画像には、カメラ等の撮影により得られた実在の人物そのものの画像や、実在の人物をシルエットで表した画像、実在の人物をアバターで表した画像、実在しないキャラクタをシルエットで表した画像等が含まれる。画像処理装置110は、実在の人物を表した画像の生成を行うときは、その人物の今現在の動きがわかるように、撮影により得られた画像からリアルタイムに画像を生成することができる。
なお、ここで、実在の人物そのものの画像は、カメラ等の撮影により得られる画像から背景を除き、人物のみを切り出した画像を含む。また、人物やキャラクタを表すシルエットの画像とは、人物やキャラクタの輪郭だけがわかるように、輪郭の中身が黒く塗りつぶされた画像である。人物を表すアバターの画像とは、人物の画像をイラスト風や3Dモデル風に加工し、人物の特徴を表現しつつも不要な部分は抽象化したキャラクタの画像である。
投影/表示装置120は、画像処理装置110が生成した画像を投影或いは表示する装置である。投影/表示装置120は、画像を壁やスクリーン等の投影面に投影するプロジェクタ等であってもよいし、ディスプレイに画像を表示する装置であってもよい。
画像処理装置110は、1又は複数のプロセッサ111(以下、単にプロセッサ111と呼ぶ)と1又は複数の記憶装置112(以下、単に記憶装置112と呼ぶ)を備える。記憶装置112には、プロセッサ111で実行可能な複数のプログラムと、それに関連する種々のデータとが記憶されている。プロセッサ111が記憶装置112に記憶されたプログラムを実行することにより、画像処理装置110は、画像の生成を含む各種の処理を実行することができる。
このような画像伝達システム100を、様々な場面で活用することを考える。
2.第1の活用例
2-1.構成例
図2は、第1の活用例における画像伝達システム100の構成例を示している。画像伝達システム100は、画像処理装置110及び投影/表示装置120に加えて、撮影装置130を含む。撮影装置130は画像を撮影するための装置であり、第1カメラ131を含む。画像処理装置110は、撮影装置130が撮影した画像を取得し、取得した画像に基づいて、投影/表示装置120で投影或いは表示するための画像を生成することができる。投影/表示装置120は、第2物体O2に画像を投影或いは表示するための第2装置122を含む。
2-1.構成例
図2は、第1の活用例における画像伝達システム100の構成例を示している。画像伝達システム100は、画像処理装置110及び投影/表示装置120に加えて、撮影装置130を含む。撮影装置130は画像を撮影するための装置であり、第1カメラ131を含む。画像処理装置110は、撮影装置130が撮影した画像を取得し、取得した画像に基づいて、投影/表示装置120で投影或いは表示するための画像を生成することができる。投影/表示装置120は、第2物体O2に画像を投影或いは表示するための第2装置122を含む。
第1の活用例では、画像伝達システム100を、ある場所にいる人物が、異なる場所にいる人物との繋がりを感じることを可能にし、人と人との繋がり感やコミュニケーションを向上させるためのシステムとして活用することを考える。具体的には、画像伝達システム100を使って画像を投影或いは表示することで、第1エリアにいる第1人物の存在を第1エリアとは異なる第2エリアにいる第2人物に伝え、第2人物が第1人物との繋がりを感じることを可能にする。第1エリアと第2エリアになり得るエリアとしては、例えば、建物の中や屋外の廊下(通路)や広間、部屋等が挙げられる。第1エリア及び第2エリアは、異なる2つの建物内にあってもよいし、同じ建物内の異なる2つのエリアであってもよいし、いずれか又は両方が屋外のエリアであってもよい。
2-2.活用の形態(基本の形態)
図3には、第1エリアA1にいる第1人物1及び第2エリアA2にいる第2人物2が示されている。図3の例では、第1エリアA1及び第2エリアA2は同じ建物1000内の異なる場所に位置する廊下である。第1エリアA1には第1カメラ131が設置され、第1エリアA1にいる第1人物1を撮影することができる。第2エリアA2には投影装置として構成された第2装置122が設置され、第2エリアA2内に設置された第2物体O2に画像を投影することができる。第2物体O2は、第2エリアA2の壁や柱、扉等の構造物であってもよいし、画像を投影するために専用に設置されたスクリーン等であってもよい。
図3には、第1エリアA1にいる第1人物1及び第2エリアA2にいる第2人物2が示されている。図3の例では、第1エリアA1及び第2エリアA2は同じ建物1000内の異なる場所に位置する廊下である。第1エリアA1には第1カメラ131が設置され、第1エリアA1にいる第1人物1を撮影することができる。第2エリアA2には投影装置として構成された第2装置122が設置され、第2エリアA2内に設置された第2物体O2に画像を投影することができる。第2物体O2は、第2エリアA2の壁や柱、扉等の構造物であってもよいし、画像を投影するために専用に設置されたスクリーン等であってもよい。
なお、以下、第2装置122が投影装置である場合を例に挙げて説明するが、第1の活用例において、第2装置122は第2物体O2に画像を表示する表示装置であってもよい。このとき、第2物体O2はディスプレイなどの表示画面であってもよく、第2装置122の一部を構成する物体であってもよい。
また、図3では第1エリアA1内に第1カメラ131が設置されているが、設置場所は必ずしも第1エリアA1内に限定される必要はなく、第1エリアA1にいる第1人物1を撮影可能な位置であれば第1エリアA1の外であってもよい。同様に、第2装置122は第2物体O2に画像を投影或いは表示可能な位置に設置されていればよく、設置場所は第2エリアA2内でなくてもよい。
画像伝達システム100は、第1エリアA1に第1人物1が存在している間、画像伝達処理を実行する。画像伝達処理は、第1人物1の存在を画像によって第2人物2に伝えるための処理である。画像伝達処理は次のような流れで行われる。まず、第1カメラ131により第1人物1が撮影される。第1人物1を撮影して得られた第1画像は、プロセッサ111によって取得される。プロセッサ111は、第1画像に基づいて、第1人物1を表す画像P1をリアルタイムに生成する。生成された画像P1は、第2装置122により第2物体O2にリアルタイムに投影される。
画像伝達処理が行われることによって、第2人物2は、第1人物1と異なるエリアにいながらにして、まるで同じエリアにいるかのように第1人物1の存在を感じることができる。これにより、第2人物2に安心感や連帯感を与えることができる。
ただし、ここで注意しなければならないのが、第1人物1のプライバシーの問題である。第1人物1が、必ずしも第2人物2に自らの詳細な状態がわかるような画像を公開することを望んでいるとは限らない。第1人物1のプライバシーの問題を解決するため、画像伝達処理には複数の画像伝達モードが設けられる。そして、第1エリアA1に最初に第1人物1が現れたときは、画像伝達モードのうちのシルエットモードが開始する。シルエットモードは、画像P1を、第1人物1のシルエットを表す第1人物シルエット画像とするモードである。図3では、画像P1として第1人物シルエット画像が投影されている。
画像伝達モードがまずシルエットモードから開始することで、第1人物1の詳細な画像がいきなり第2人物2に公開されることがなくなり、第1人物1は、安心して第1エリアA1に入ったり第1エリアA1を通り抜けたりすることができる。一方で、第2人物2にとっては、画像P1がシルエットの画像であるか否かに関わらず、第1人物1の存在を感じて安心感や連帯感を得られることには変わりない。それどころか、画像P1がシルエットの画像とされることで、まるでそこにいる誰かの影が映っているかのような奥行き感が生み出され画像P1の存在感が強調される。こうして、第1人物1のプライバシーに配慮しつつ、第2人物2に対しては、安心感や連帯感をより効果的に与えることができる。
さて、以上に述べたように、画像伝達処理が開始するときの最初の画像伝達モードとしてシルエットモードは適切である。しかし、第1人物1が、自身のより詳細な画像を第2人物2に公開することを望んでいることもあり得る。例えば、第1人物1は、シルエットから伝わる動作だけでなく、服装や表情をも第2人物2に伝えたいと思っているかもしれない。第1人物1と第2人物2とのコミュニケーションや繋がり感を向上させるという観点から、第1人物1が希望する場面においては、第1人物1のより詳細な画像が第2人物2に公開されることが望ましい。そこで、第1人物1による意思表示があると判断されるときは、画像伝達システム100は、画像伝達モードをシルエットモードからライブモードに変更する。ライブモードは、画像P1を、第1人物シルエット画像よりも第1人物1そのものの画像に近い第1人物詳細画像にするモードである。
図4は、第1人物詳細画像の例として、第1人物1そのものの画像が画像P1として第2物体O2に投影されている。第1人物詳細画像は、このように第1人物1そのものの画像であってもよいし、第1人物1を表すアバターの画像であってもよい。画像P1が第1人物詳細画像とされることで、第2人物2は、第1人物シルエット画像からは伝わらない、服装や表情等も含めた第1人物1の詳細を知ることができる。
画像伝達モードをライブモードに変更するときに必要となる第1人物1の意思表示の有無は、第1人物1が行う第1トリガ動作により判断される。第1人物1が第1トリガ動作を行ったと判断されるときは、画像伝達システム100は、画像伝達モードをシルエットモードからライブモードに切り替える。第1トリガ動作となる動作は、システムの管理者等によって予め設定される。第1トリガ動作としては任意の動作が設定されてよいが、第1人物1が自らの意思に基づいて第1トリガ動作を行ったことがわかるように、第1エリアA1をただ通行するときには通常行われない動作が設定されることが望ましい。例として、両手を大きく振る、その場で3回ジャンプする、壁に両手を2回同時にタッチする、などの動作が第1トリガ動作とされてもよい。
第1トリガ動作は、第1人物1に予め教えられることが好ましい。第1人物1に第1トリガ動作を知らせる方法としては、第1エリアA1の壁や入口に第1トリガ動作についての説明を掲示しておく方法や、第1エリアA1を通過することが見込まれる人物に対して、それぞれの人物が所有するスマートフォンのアプリ等を通じて説明を配信しておく方法が例示される。このように、第1人物1に対して第1トリガ動作が予め指定されることで、第1人物1による第1トリガ動作が自らの意思に基づいて行われたことをより明確にすることができる。
また、別の例として、第1トリガ動作は、第1人物1が自ら設定することのできる動作であってもよい。例えば、スマートフォンのアプリ等を通じて、事前に好きな動作を登録しておくことができてもよい。第1トリガ動作を第1人物1自身が指定した動作とすることで、第1人物1が知らないうちに第1トリガ動作を行ってしまう可能性を少なくし、第1人物1による第1トリガ動作が第1人物1の意思に基づいて行われたことを更に明確にすることができる。
2-3.フローチャート
第1の活用例においてプロセッサ111が実行する処理は、画像伝達モード設定処理と画像伝達処理とを含む。画像伝達モード設定処理と画像伝達処理とはそれぞれ異なるプログラムによって実行される。図5は、画像伝達モード設定処理の例を示すフローチャートである。画像伝達モード設定処理は、所定の制御周期で繰り返し実行される。
第1の活用例においてプロセッサ111が実行する処理は、画像伝達モード設定処理と画像伝達処理とを含む。画像伝達モード設定処理と画像伝達処理とはそれぞれ異なるプログラムによって実行される。図5は、画像伝達モード設定処理の例を示すフローチャートである。画像伝達モード設定処理は、所定の制御周期で繰り返し実行される。
ステップS101において、プロセッサ111は、第1エリアA1に新たな第1人物1が現れたか否かを判定する。第1エリアA1内に新たな第1人物1が現れたことは、第1画像に基づいて判断されてもよいし、第1エリアA1に設置された人感センサ等のセンサにより判断されてもよい。第1エリアA1に新たに第1人物1が出現したと判定された場合(ステップS101;Yes)、処理はステップS102に進む。第1エリアA1に新たな第1人物1が出現していない場合(ステップS101;No)、今サイクルの処理は終了する。
ステップS102において、プロセッサ111は、画像伝達処理フラグをONにする。画像伝達処理フラグは画像伝達処理を実行させるためのフラグである。このとき、画像伝達モードはシルエットモードに設定される。シルエットモードが開始すると、処理はステップS103に進む。
ステップS103において、プロセッサ111は、第1人物1による第1トリガ動作が行われたか否かを判定する。第1人物1による第1トリガ動作が行われたか否かは、第1画像に基づいて判定される。第1人物1による第1トリガ動作が行われたと判定された場合(ステップS103;Yes)、処理はステップS104に進む。第1人物1による第1トリガ動作が行われていないと判定された場合(ステップS103;No)、処理はステップS105に進む。ステップS103において、プロセッサ111は、第1人物1によって自発的に第1トリガ動作が行われたと判断される場合にのみ第1トリガ動作が行われたと判定し、第1人物1が行った第1トリガ動作が自発的な動作でないと判断される場合は、第1トリガ動作が行われていないと判定してもよい。
ステップS104において、プロセッサ111は、ライブモードを開始する。つまり、画像伝達モードをシルエットモードからライブモードに変更する。ライブモードが開始されると、処理はステップS105に進む。なお、現在の画像伝達モードが既にライブモードに設定されている場合は画像伝達モードの変更は行われず、ライブモードが継続される。
ステップS105において、プロセッサ111は、第1エリアA1に第1人物1が存在しているか否かを判定する。第1エリアA1に第1人物1が存在しているか否かは、第1画像に基づいて判断されてもよいし、第1エリアA1に設置されたセンサから取得される情報に基づいて判断されてもよい。第1人物1が引き続き第1エリアA1に存在している場合(ステップS105;Yes)、処理はステップS103に戻る。第1人物1が第1エリアA1に存在しなくなっている場合(ステップS105;No)処理はステップS106に進む。
ステップS106において、プロセッサ111は、画像伝達処理フラグをOFFにする。画像伝達処理フラグがOFFになると、後述する画像伝達処理が行われなくなることで、画像P1の第2物体O2への投影は終了する。画像伝達処理フラグがOFFにされると、今サイクルの処理は終了する。
図6は、プロセッサ111が実行する画像伝達処理の例を示すフローチャートである。画像伝達処理は、画像伝達処理フラグがONになっている間、所定の制御周期で繰り返し実行される。画像伝達モード設定処理と画像伝達処理との実行サイクルは同じであってもよいし、異なっていてもよい。
ステップS201において、プロセッサ111は第1画像を取得する。第1画像は、第1カメラ131によって第1エリアA1に存在する第1人物1を撮影することで得られる。第1画像が取得されると、処理はステップS202に進む。
ステップS202において、プロセッサ111は、第1画像に基づいて画像P1を生成する。画像伝達モードがシルエットモードの間は、第1画像から第1人物1の輪郭が抽出され、画像P1として第1人物シルエット画像が生成される。画像伝達モードがライブモードの間は、第1画像から第1人物1そのものの画像が抽出されて画像P1とされる、又は第1画像に含まれる第1人物1の画像からアバターの画像が生成される。画像P1の生成は、第1画像の取得に対してリアルタイムに行われる。画像P1が生成されると、処理はステップS203に進む。
ステップS203において、プロセッサ111は、第2装置122によって画像P1を第2物体O2に投影させる。画像P1の投影は、画像P1の生成に対してリアルタイムに行われる。画像P1が投影されると、今サイクルの処理は終了する。
なお、第1エリアA1に複数の第1人物1が存在する場合、それぞれの第1人物1に対する処理は連動しない。つまり、画像伝達モード設定処理及び画像伝達処理はそれぞれの第1人物1に対して独立に実行される。そのため、第2物体O2に投影される複数の画像P1の中に第1人物シルエット画像と第1人物詳細画像とが混在する場合がある。
例えば、1人目の第1人物1-Xが第1エリアA1に入ってきて画像伝達処理フラグがONにされた後、第1人物1-Xの第1トリガ動作によって画像伝達モードがライブモードに設定されたとする。その後、2人目の第1人物1-Yが第1エリアA1に入ってきたとすると、第1人物1-Yに対する画像伝達処理フラグが新たにONにされる。そして、第1人物1-Yに対しての画像伝達モードは、第1人物1-Xによる第1トリガ動作の有無に関わらず、最初はシルエットモードに設定され、第1人物1-Yの第1トリガ動作があったときに初めてライブモードに設定される。このように、それぞれの第1人物1に対して独立に画像伝達モードの設定が行われることで、第1人物1が複数存在する場合も、それぞれの第1人物1が自分の意思に基づいて、第2エリアA2に向けて公開される情報量をコントロールすることを可能にする。
以上に説明したように、第1の活用例においては、画像伝達システム100によって、第1エリアA1にいる第1人物1の画像P1が異なる第2エリアA2に映し出され、第2人物2に対して安心感や一体感が与えられる。また、最初に映し出される第1人物1の画像は必ずシルエットの画像とされることで、第1人物1のプライバシーに配慮すると同時に、画像P1の存在感を強調することができ、第2人物2に対して安心感や一体感を効果的に演出することができる。また、第1人物1による意思表示があったときには画像P1を第1人物詳細画像とすることで、第1人物1と第2人物2とのコミュニケーションをより円滑にすることができる。
2-4.応用形態
以下に、第1の活用例を応用した2つの形態を説明する。1つ目の応用形態及び2つ目の応用形態は組み合わせることも可能である。
以下に、第1の活用例を応用した2つの形態を説明する。1つ目の応用形態及び2つ目の応用形態は組み合わせることも可能である。
1つ目の応用形態として、画像伝達システム100は、第1人物1が第1トリガ動作を行う度に画像P1を第1人物1そのものの画像により近づけていってもよい。具体的には、ライブモードとして第1段階目のライブモード、第2段階目のライブモード、…といったように複数の段階のモードが設定され、第1人物1が第1トリガ動作を行う度にライブモードが現在の段階から1つ上の段階のライブモードに移行する。それぞれの段階では、投影される第1人物詳細画像がどの程度第1人物1に近い画像であるかが異なる。図7は、1つ目の応用例においてプロセッサ111により実行される画像伝達モード設定処理の例を示すフローチャートである。
ステップS301からステップS303における処理は、図5のステップS101からステップS103における処理と同様である。ステップS303において、第1人物1による第1トリガ動作が行われたと判定された場合(ステップS303;Yes)、処理はステップS304に進む。第1人物1によるトリガ動作が行われていないと判定された場合(ステップS303;No)、処理はステップS305に進む。
ステップS305において、第1エリアA1に第1人物1が存在しているか否かが判定される。引き続き第1エリアA1に第1人物1が存在している場合(ステップS305;Yes)、処理はステップS303に戻る。第1人物1が第1エリアA1からいなくなっている場合(ステップS305;No)、処理はステップS309に進む。
ステップS304において、画像伝達モードがシルエットモードから第1段階目のライブモードに変更される。第1段階目のライブモードが開始すると、処理はステップS306に進む。
ステップS306からステップS308の処理は、ステップS303からステップS305の処理と基本的には同じである。ただし、ステップS307において設定されるライブモードは現在のライブモードによって決まる。現在のライブモードがN-1段階目のライブモードのとき、ステップS307においてN段階目のライブモードが開始する。ただし、現在のライブモードが1番上の段階のライブモードのときは、画像伝達モードは同じ段階のライブモードに引き続き設定される。
その後、第1エリアA1から第1人物1がいなくなるまでステップS306からステップS308の処理が繰り返される。ステップS308において第1エリアA1に第1人物1が存在しないと判定されると(ステップS308;No)、処理はステップS309に進む。ステップS309においては、図5のステップS106と同様に、プロセッサ111によって画像伝達処理フラグがOFFにされる。画像伝達処理フラグがOFFにされると、今サイクルの処理は終了する。
ライブモードの複数の段階は、2段階であってもよく、第1段階目のライブモードで第1人物詳細画像が第1人物1を表すアバターの画像とされ、第2段階目のライブモードで第1人物詳細画像が第1人物1そのものの画像とされてもよい。或いは、ライブモードの複数の段階は2段階よりも多くの段階から成っていてもよい。例えば、第1段階目のライブモードで第1人物詳細画像が第1人物1の特徴の細かい部分までは表現せずに第1人物1を大幅に抽象化したアバターの画像とされ、ライブモードの段階が上がるごとに、第1人物詳細画像が第1人物1をより詳細に表現した画像に移行されていってもよい。そして、1番上の段階のライブモードで第1人物詳細画像が第1人物1そのものの画像とされてもよい。
1つ目の応用形態では、ライブモードに複数の段階が設けられることで、第1人物1は画像P1によって公開される情報量をコントロールすることが可能になり、よりプライバシーへの配慮のなされたシステムとすることができる。例えば、第1人物1が、第1人物シルエット画像からは伝わらない、自分が笑っているか怒っているか等の表情は第2人物2に伝えたいが、自身が明確に特定されるような詳細な特徴までは第2人物2に知られたくないと考える場合等に有効である。このような場合にも、第1人物1がトリガ動作を行う回数によって画像P1の抽象度をコントロールし、第2人物2に知られてもよいと思う情報のみが公開されるようにすることを可能とする。
続いて、2つ目の応用形態について説明する。2つ目の応用形態では、画像P1を第1人物シルエット画像に戻すためのリセット動作が設定される。図8は、2つ目の応用例における画像伝達モード設定処理の例を示すフローチャートである。図8のフローチャートにおけるステップS401からステップS404における処理は、図5のステップS101からステップS104の処理と同様である。なお、ステップS402において、画像伝達処理フラグが既にONになっている場合は、ONの状態が維持される。ステップS404でライブモードが開始された後、処理はステップS405に進む。
ステップS405において、プロセッサ111は、第1人物1によるリセット動作が行われたか否かを判定する。リセット動作は、一度ライブモードに設定された画像伝達モードを再びシルエットモードに戻すための動作である。第1人物1によるリセット動作の有無は第1画像に基づいて判断される。第1人物1によるリセット動作が行われたと判定された場合(ステップS405;Yes)、処理はステップS402に戻る。第1人物1によるリセット動作が行われていないと判定された場合(ステップS405;No)、処理はステップS406に進む。ステップS405において、プロセッサ111は、第1人物1によって自発的にリセット動作が行われた場合にのみリセット動作が行われたと判定し、リセット動作が第1人物1による自発的な動作でないと判断される場合は、リセット動作が行われていないと判定してもよい。
リセット動作はシステムの管理者等により予め設定される。リセット動作は、第1トリガ動作と異なる動作であれば任意の動作が設定されてよい。ただし、第1人物1が自分の意思に基づいてリセット動作を行ったことがわかるように、第1エリアA1をただ通行するときには通常行われない動作が設定されることが望ましい。また、第1トリガ動作との区別を明確にするため、第1トリガ動作と大きく異なる動作が設定されることが望ましい。例えば、第1トリガ動作として両手を大きく振る動作が設定され、リセット動作としてその場で大きくジャンプする動作が設定されてもよい。
ステップS406及びステップS407における処理は、図5のステップS105及びステップS106における処理と同様である。ステップS407で画像伝達処理フラグがOFFにされると、今サイクルの処理は終了する。
2つ目の応用形態においては、リセット動作が設定されることによって、第1人物1は、第2人物2に第1人物詳細画像を公開したくないにもかかわらず誤って第1トリガ動作を行ってしまったときに、自らの意思に基づいて画像P1を第1人物シルエット画像に戻すことができる。これにより、第1人物1のプライバシーにより配慮したシステムとすることができ、第1人物1にとっての安心感を高めることができる。
2-5.双方向の情報伝達
以上の説明では、第1エリアA1から第2エリアA2の一方向に向けて行われる画像による情報の伝達について述べた。このような画像による情報の伝達は、双方向に向けて行われてもよい。つまり、第1エリアA1から第2エリアA2へ画像による情報の伝達が行われると同時に、第2エリアA2から第1エリアA1へも画像による情報の伝達が行われてもよい。
以上の説明では、第1エリアA1から第2エリアA2の一方向に向けて行われる画像による情報の伝達について述べた。このような画像による情報の伝達は、双方向に向けて行われてもよい。つまり、第1エリアA1から第2エリアA2へ画像による情報の伝達が行われると同時に、第2エリアA2から第1エリアA1へも画像による情報の伝達が行われてもよい。
図9は、双方向の情報の伝達が行われる場合の画像伝達システム100の構成例を示している。撮影装置130は第1カメラ131及び第2カメラ132の2つのカメラを含む。投影/表示装置120は、第1物体O1に画像を投影或いは表示する第1装置121、及び第2物体O2に画像を投影或いは表示する第2装置122の2つの装置を含む。
図10は、双方向の情報の伝達が行われている場面の例を示している。第1エリアA1には第1人物1が、第2エリアA2には第2人物2が存在している。第1カメラ131によって第1人物1が撮影され、撮影された画像に基づいて作成された第1人物1を表す画像P1が第2物体O2に投影されている点は図4と同様である。図10では、それに加えて、第1エリアA1に第1装置121が、第2エリアA2に第2カメラ132が設置されている。そして、第2カメラ132で第2人物2が撮影され、撮影された画像に基づいて作成された第2人物2を表す画像P2が、第1エリアA1に設置された第1物体O1に投影されている。
画像P1及び画像P2はそれぞれ、投影が開始するときには、第1人物シルエット画像及び第2人物のシルエットを表す第2人物シルエット画像とされる。そして、第1人物1による第1トリガ動作が行われたときは、第1人物1に対してライブモードが開始して画像P1が第1人物詳細画像とされる。また、第2人物2による第2トリガ動作が行われたときは、第2人物2に対してライブモードが開始して画像P2が第2人物シルエット画像よりも第2人物そのものの画像に近い第2人物詳細画像とされる。第2トリガ動作は、システムの管理者等によって予め設定される。第1トリガ動作と第2トリガ動作は同じ動作であってもよいし、異なる動作であってもよい。第1人物1と第2人物2はお互いの画像を見ることができるため、双方向のコミュニケーションに繋がる。
なお、第1物体O1と同様、第2物体O2は、第2エリアA2の壁や柱、扉等の構造物であってもよいし、画像を投影するために専用に設置されたスクリーン等であってもよい。また、第2装置122についても、例として投影装置である場合を仮定して説明しているが、第2物体O2に画像を表示する表示装置であってもよい。このとき第2物体O2はディスプレイなどの表示画面であってもよく、第2装置122の一部であってもよい。
また、第2カメラ132の設置場所は必ずしも第2エリアA2内に限定される必要はなく、第2エリアA2にいる第2人物2を撮影可能な位置であれば第2エリアA2の外であってもよい。同様に、第2装置122は第2物体O2に画像を投影或いは表示可能な位置に設置されていればよく、設置場所は第2エリアA2内でなくてもよい。
双方向の情報の伝達が行われる場合、第1人物1に対しての画像伝達モードと、第2人物2に対しての画像伝達モードとは、独立に設定されてもよいし、連動して設定されてもよい。独立に設定される場合は、上記の説明における第1エリアA1、第2エリアA2、第1人物1、第2人物2、第1カメラ131、第2装置122、第2物体O2、第1トリガ動作をそれぞれ第2エリアA2、第1エリアA1、第2人物2、第1人物1、第2カメラ132、第1装置121、第1物体O1、第2トリガ動作に置き換えることで画像P2の投影に関する処理が実現できる。
2-6.トリガ動作の連携
双方向の情報の伝達が行われる場合、第1人物1に対しての画像伝達モードと、第2人物2に対しての画像伝達モードとは、連動して設定されてもよい。このとき、シルエットモードからライブモードへの移行のためのトリガ動作を、第1人物1と第2人物2の連携によって実現される動作とすることができる。第1人物1と第2人物2の連携によって可能になるトリガ動作としては、同時又は同一のトリガ動作が想定される。同時のトリガ動作が行われるとは、第1人物1による第1トリガ動作と第2人物2による第2トリガ動作が同時に行われることである。この場合も、第1トリガ動作と第2トリガ動作は、同じ動作であっても異なる動作であってもよい。同一のトリガ動作が行われるとは、第1トリガ動作と第2トリガ動作が同じ動作であり、第1人物1による第1トリガ動作及び第2人物2による第2トリガ動作のどちらもが行われることである。
双方向の情報の伝達が行われる場合、第1人物1に対しての画像伝達モードと、第2人物2に対しての画像伝達モードとは、連動して設定されてもよい。このとき、シルエットモードからライブモードへの移行のためのトリガ動作を、第1人物1と第2人物2の連携によって実現される動作とすることができる。第1人物1と第2人物2の連携によって可能になるトリガ動作としては、同時又は同一のトリガ動作が想定される。同時のトリガ動作が行われるとは、第1人物1による第1トリガ動作と第2人物2による第2トリガ動作が同時に行われることである。この場合も、第1トリガ動作と第2トリガ動作は、同じ動作であっても異なる動作であってもよい。同一のトリガ動作が行われるとは、第1トリガ動作と第2トリガ動作が同じ動作であり、第1人物1による第1トリガ動作及び第2人物2による第2トリガ動作のどちらもが行われることである。
例えば、第1人物が第1物体O1に投影された画像P2に触れると同時に第2人物2が第2物体O2に投影された画像P1に触れることを、同時又は同一のトリガ動作としてもよい。トリガ動作を連携させるときは、単に同時に行われた動作をトリガ動作とするだけでなく、このように、第1人物1と第2人物2とが協力して行うことが必要な動作をトリガ動作とすることができ、第1人物1と第2人物2との間により強い繋がり感や連帯感や感じさせることが可能になる。
図11は、トリガ動作を連携させる場合における、画像伝達モード設定処理の例を示すフローチャートである。
ステップS501において、プロセッサ111は、第1エリアA1内に第1人物が、第2エリアA2に第2人物が存在し、第1人物1と第2人物2が揃った状態になっているか否かを判定する。それぞれのエリアに第1人物1及び第2人物2が存在しているか否かは、第1カメラ131及び第2カメラ132が撮影する画像に基づいて判断されてもよいし、それぞれのエリアに設置された人感センサ等により判断されてもよい。第1人物1と第2人物2が揃っていると判定された場合(ステップS501;Yes)、処理はステップS502に進む。第1人物1と第2人物2が揃っていない場合(ステップS501;No)、今サイクルの処理は終了する。
ステップS502において、プロセッサ111は、画像伝達処理フラグをONにする。このとき、画像伝達モードはシルエットモードに設定される。シルエットモードが開始すると、処理はステップS503に進む。なお、図11のフローチャートが示す処理において、第1人物1に対する画像伝達処理フラグのON/OFFと第2人物2に対する画像伝達処理フラグのON/OFF、及び第1人物1に対する画像伝達モードの設定と第2人物2に対する画像伝達モードの設定とは連動して行われる。
ステップS503において、プロセッサ111は、同時又は同一のトリガ動作が行われたか否かを判定する。同時又は同一のトリガ動作が行われたか否かは、第1画像及び第2画像に基づいて判断される。ここで、第2画像は第2人物2を第2カメラ132で撮影することによって得られる画像である。同時又は同一のトリガ動作が行われたと判定された場合(ステップS503;Yes)、処理はステップS504に進む。同時又は同一のトリガ動作が行われていないと判定された場合(ステップS503;No)、処理はステップS505に進む。ステップS503において同時のトリガ動作の有無を判断するとき、プロセッサ111は、第1人物1によって第1トリガ動作が行われたタイミングと第2人物2によって第2トリガ動作が行われたタイミングとの差が一定時間内であれば同時のトリガ動作が行われたと判断してもよい。
ステップS504において、プロセッサ111は、ライブモードを開始する。現在の画像伝達モードがライブモードの場合は現在のモードが継続される。ライブモードが開始されると、処理はステップS505に進む。
ステップS505において、プロセッサ111は、第1エリアA1に第1人物1が、第2エリアA2に第2人物2が存在しているか否かを判定する。第1人物1と第2人物2のいずれもが引き続き存在している場合(ステップS505;Yes)、処理はステップS503に戻る。いずれか、又は両方の人物がいなくなっている場合(ステップS505;No)処理はステップS506に進む。
ステップS506において、プロセッサ111は、画像伝達処理フラグをOFFにする。画像伝達処理フラグがOFFになると、画像P1の第1物体O1への投影及び画像P2の第2物体O2への投影は終了する。画像伝達処理フラグがOFFにされると、今サイクルの処理は終了する。
2-7.その他の例
第1エリアA1と第2エリアA2が遠く離れたエリアの場合、第1エリアA1と第2エリアA2との間には時差が発生することがある。画像伝達システム100は、このような2つのエリアの間に発生する時差に対応したシステムであってもよい。つまり、画像伝達システム100は、第1エリアA1を撮影して取得された画像P1を即座に第2物体O2に投影せず、時差を考慮したタイミングで第2物体O2に投影してもよい。
第1エリアA1と第2エリアA2が遠く離れたエリアの場合、第1エリアA1と第2エリアA2との間には時差が発生することがある。画像伝達システム100は、このような2つのエリアの間に発生する時差に対応したシステムであってもよい。つまり、画像伝達システム100は、第1エリアA1を撮影して取得された画像P1を即座に第2物体O2に投影せず、時差を考慮したタイミングで第2物体O2に投影してもよい。
また、画像伝達システム100は、画像P1と一緒に画像P2を第2物体O2に投影し、画像P2と一緒に画像P1を第1物体O1に投影してもよい。これにより、画像同士のインタラクションを生みだすことができる。例えば、第1人物1や第2人物2は、画像同士を重ね合わるといった楽しみ方によって、互いの繋がりをより強く感じることができる。
また、第1人物1と第1物体O1との距離が近くなるほど画像P1の濃さが濃くなるように画像P1の濃さは可変とされてもよい。同様に、第2人物2と第2物体O2との距離が近くなるほど画像P2の濃さが濃くなるように画像P2の濃さが可変とされてもよい。これにより、投影される画像P1及び画像P2の臨場感をより強調することができる。
3.第2の活用例
第1の活用例では、実在の人物との繋がりを感じさせるためのシステムとして、画像伝達システム100を活用することを考えた。第2の活用例では、実在しないキャラクタとの繋がりを感じさせるためのシステムとして、画像伝達システム100を活用することを考える。
第1の活用例では、実在の人物との繋がりを感じさせるためのシステムとして、画像伝達システム100を活用することを考えた。第2の活用例では、実在しないキャラクタとの繋がりを感じさせるためのシステムとして、画像伝達システム100を活用することを考える。
図12は、第2の活用例において画像伝達システム100が適用された場面の例を示している。第2の活用例においては、投影/表示装置120は特定エリアA3内の投影面S1に画像を投影する投影装置123を含む。投影面S1は、特定エリアA3の壁や床、柱、扉等の構造物であってもよいし、画像の投影用に設置されたスクリーンであってもよい。また、投影面S1は平面であっても曲面であってもよい。
画像伝達システム100(プロセッサ111)は、キャラクタC3を表すシルエットの画像P3を生成し、投影装置123によって投影面S1に投影する。画像P3の投影は、人物3が特定エリアA3に存在していることを条件として行われる。人物3は不特定の人物であってよく、単数の人物であってもよいし複数の人物であってもよい。人物3が特定エリアA3に存在していることは、例えば、人感センサ等のセンサによって判断されてもよい。センサが人を検知しているときは、特定エリアA3に人物3が存在していると判断される。また、このようなセンサは、画像伝達システム100に含まれる装置であってもよい。別な例として、図13に示されるように特定エリアA3に第3カメラ133が設置され、第3カメラ133が取得する情報に基づいて人物3が存在していることが判断されてもよい。このとき、第3カメラ133は撮影装置130に含まれていてもよい。
画像伝達システム100(プロセッサ111)は、少なくとも特定エリアA3内に人物3が存在していることを条件として、特定エリアA3内の投影面S1に、キャラクタC3を表す画像P3を投影する。ここで、画像P3はシルエットの画像とされる。画像P3をシルエットの画像とすることで、キャラクタC3の存在感を強調する上で効果的である。また、画像P3がシルエットの画像とされることで、投影面S1として専用のスクリーンではなく特定エリアA3内の既存の構造物を使用した画像の投影が容易になる。既存の構造物を使用する場合には、画像P3がどこに出てくるのか人物3にとって予測がしづらくなり、キャラクタC3に出会ったときの臨場感を高めることができる。
第2の活用例においては、次のようないくつかの実施形態が想定される。次に挙げる実施形態は、それぞれ単独で実施されてもよいし、複数を組み合わせて実施されてもよい。
1つ目の実施形態では、画像伝達システム100(プロセッサ111)は、1体のキャラクタC3を表す画像P3を、特定エリアA3内に2以上投影しない。キャラクタC3が1体しか存在しないことを画像P3でも表現することで、キャラクタC3の実在感を強調することができる。また、キャラクタC3のレア感が高まる。
2つ目の実施形態では、画像伝達システム100(プロセッサ111)は、人物3とキャラクタC3との関係性を特定し、特定した関係性に応じて画像P3で表されるキャラクタC3の行動を変化させる。画像伝達システム100は、例えば、第3カメラ133によって人物3を認識し、それぞれの人物3とキャラクタC3との関係性を特定することができる。特定される関係性は、例えばある人物がキャラクタに会った回数及び時間に応じたパラメータが予め規定され、それに基づいて決定されてもよいし、ランダムに決まる要素によって決定されてもよい。人物3とキャラクタC3との関係性を示す関係性情報は、記憶装置112に記憶される。プロセッサ111は、その関係性情報に基づいて、画像P3で表されるキャラクタC3の行動を変化させる。関係性に応じてキャラクタC3の動きが変わることで、まるでキャラクタに感情があるように感じられ、実在感を増すことができる。
3つ目の実施形態では、画像伝達システム100(プロセッサ111)は、人物3がトリガ動作を行うことを、画像P3の投影を開始するための条件とする。トリガ動作は、システムの管理者等によって予め設定される。人物3によるトリガ動作の有無は、例えば、第3カメラ133で人物3を撮影して得られる画像に基づいて判断することができる。1つ目の活用例及び2つ目の活用例の場合と異なり、このときのトリガ動作は、人物3には予め教えられない。つまり、人物3がたまたまトリガ動作を行ったときにのみ画像P3の投影が開始することになる。このようなトリガ動作が画像P3の投影の条件とされることで、キャラクタのレア感が高まり、驚きやわくわく感を提供することができる。
A1 第1エリア
A2 第2エリア
A3 特定エリア
C3 キャラクタ
O1 第1物体
O2 第2物体
P1 画像
P2 画像
P3 画像
S1 投影面
1 第1人物
2 第2人物
3 人物
100 画像伝達システム
110 画像処理装置
111 プロセッサ
112 記憶装置
120 表示装置
121 第1装置
122 第2装置
123 投影装置
130 撮影装置
131 第1カメラ
132 第2カメラ
133 第3カメラ
1000 建物
A2 第2エリア
A3 特定エリア
C3 キャラクタ
O1 第1物体
O2 第2物体
P1 画像
P2 画像
P3 画像
S1 投影面
1 第1人物
2 第2人物
3 人物
100 画像伝達システム
110 画像処理装置
111 プロセッサ
112 記憶装置
120 表示装置
121 第1装置
122 第2装置
123 投影装置
130 撮影装置
131 第1カメラ
132 第2カメラ
133 第3カメラ
1000 建物
Claims (11)
- 1又は複数のプロセッサを備え、
前記1又は複数のプロセッサは、
第1エリアに存在する第1人物を第1カメラで撮影して第1画像を取得する処理と、
前記第1画像内の前記第1人物のシルエットを表す第1人物シルエット画像を生成する処理と、
前記第1エリアと異なる第2エリアに設置された第2物体に前記第1人物シルエット画像を投影或いは表示する処理と、
前記第1画像に基づいて、前記第1人物が第1トリガ動作を行ったか否か判定する処理と、
前記第1人物が前記第1トリガ動作を行った場合、前記第1人物シルエット画像よりも前記第1人物そのものの画像に近い第1人物詳細画像を前記第2物体に投影或いは表示する処理と、
を実行するように構成された
画像伝達システム。 - 請求項1に記載の画像伝達システムであって、
前記第1トリガ動作は、前記第1人物に予め教えられる動作、或いは、前記第1人物によって予め設定された動作である、
画像伝達システム。 - 請求項1又は2に記載の画像伝達システムであって、
前記第1人物詳細画像は、前記第1人物そのものの画像、或いは、前記第1人物のアバターの画像である
画像伝達システム。 - 請求項1又は2に記載の画像伝達システムであって、
前記1又は複数のプロセッサは、
前記第1人物が前記第1トリガ動作を行う度に、前記第1人物詳細画像を前記第1人物そのものの前記画像により近づける処理
を更に実行するように構成された
画像伝達システム。 - 1又は複数のプロセッサを備え、
前記1又は複数のプロセッサは、
第1エリアに存在する第1人物を第1カメラで撮影して第1画像を取得する処理と、
前記第1画像内の前記第1人物のシルエットを表す第1人物シルエット画像を生成する処理と、
前記第1エリアと異なる第2エリアに設置された第2物体に前記第1人物シルエット画像を投影或いは表示する処理と、
前記第2エリアに存在する第2人物を第2カメラで撮影して第2画像を取得する処理と、
前記第2画像に含まれる前記第2人物のシルエットを表す第2人物シルエット画像を生成する処理と、
前記第1エリアに設置された第1物体に前記第2人物シルエット画像を投影或いは表示する処理と、
前記第1画像及び前記第2画像に基づいて、前記第1人物と前記第2人物が同時又は同一のトリガ動作を行ったか否か判定する処理と、
前記第1人物と前記第2人物が前記同時又は同一のトリガ動作を行った場合、前記第1人物シルエット画像よりも前記第1人物そのものの画像に近い第1人物詳細画像を前記第2物体に投影或いは表示し、且つ、前記第2人物シルエット画像よりも前記第2人物そのものに近い第2人物詳細画像を前記第1物体に投影或いは表示する処理と
を実行するように構成された
画像伝達システム。 - 請求項5に記載の画像伝達システムであって、
前記同時又は同一のトリガ動作は、前記第1人物が前記第1物体に投影或いは表示された前記第2人物シルエット画像に触れると同時に、前記第2人物が前記第2物体に投影或いは表示された前記第1人物シルエット画像に触れることを含む
画像伝達システム。 - 特定エリア内の人を検知するセンサと、
1又は複数のプロセッサと、を備え、
前記1又は複数のプロセッサは、少なくとも前記センサが前記人を検知していることを条件として、前記特定エリア内の投影面にキャラクタを表すシルエットの画像を投影する処理を実行するように構成されている
画像伝達システム。 - 請求項7に記載の画像伝達システムであって、
前記1又は複数のプロセッサは、1体の前記キャラクタを表す前記シルエットの画像を前記特定エリア内に2以上投影しない、
画像伝達システム。 - 請求項7又は8に記載の画像伝達システムであって、
前記1又は複数のプロセッサは、前記センサが検知した人と前記キャラクタとの関係性を特定し、前記関係性に応じて、前記画像によって表される前記キャラクタの行動を変化させる、
画像伝達システム。 - 請求項7又は8に記載の画像伝達システムであって、
前記1又は複数のプロセッサは、前記センサによって検知されている前記人がトリガ動作を行うことを条件として、前記画像を投影する、
画像伝達システム。 - 第1エリアに存在する第1カメラにより第1画像を取得する処理と、
前記第1画像に含まれる第1人物のシルエットを表す第1人物シルエット画像を生成する処理と、
前記第1エリアと異なる第2エリアに設置された第2物体に前記第1人物シルエット画像を投影或いは表示する処理と
前記第1画像に基づいて、前記第1人物が第1トリガ動作を行ったか否か判定する処理と、
前記第1人物が前記第1トリガ動作を行った場合、前記第1人物シルエット画像よりも前記第1人物そのものの画像に近い第1人物詳細画像を前記第2物体に投影或いは表示する処理と
を含む
画像伝達方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022118877A JP2024016623A (ja) | 2022-07-26 | 2022-07-26 | 画像伝達システム、画像伝達方法 |
US18/335,735 US20240037807A1 (en) | 2022-07-26 | 2023-06-15 | Image transmission system and image transmission method |
CN202310768407.8A CN117459695A (zh) | 2022-07-26 | 2023-06-27 | 图像传输系统、图像传输方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022118877A JP2024016623A (ja) | 2022-07-26 | 2022-07-26 | 画像伝達システム、画像伝達方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024016623A true JP2024016623A (ja) | 2024-02-07 |
Family
ID=89595455
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022118877A Pending JP2024016623A (ja) | 2022-07-26 | 2022-07-26 | 画像伝達システム、画像伝達方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20240037807A1 (ja) |
JP (1) | JP2024016623A (ja) |
CN (1) | CN117459695A (ja) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9324173B2 (en) * | 2008-07-17 | 2016-04-26 | International Business Machines Corporation | System and method for enabling multiple-state avatars |
ES2958183T3 (es) * | 2011-08-05 | 2024-02-05 | Samsung Electronics Co Ltd | Procedimiento de control de aparatos electrónicos basado en el reconocimiento de voz y de movimiento, y aparato electrónico que aplica el mismo |
WO2014192552A1 (ja) * | 2013-05-30 | 2014-12-04 | ソニー株式会社 | 表示制御装置、表示制御方法及びコンピュータプログラム |
-
2022
- 2022-07-26 JP JP2022118877A patent/JP2024016623A/ja active Pending
-
2023
- 2023-06-15 US US18/335,735 patent/US20240037807A1/en active Pending
- 2023-06-27 CN CN202310768407.8A patent/CN117459695A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
CN117459695A (zh) | 2024-01-26 |
US20240037807A1 (en) | 2024-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11043033B2 (en) | Information processing device and information processing method capable of deciding objects arranged in virtual space generated based on real space | |
US9654734B1 (en) | Virtual conference room | |
CN107682729A (zh) | 一种基于直播的互动方法及直播系统、电子设备 | |
US11023599B2 (en) | Information processing device, information processing method, and program | |
WO2020050103A1 (ja) | 仮想視点の制御装置及びその制御方法 | |
JP7476375B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2016213674A (ja) | 表示制御システム、表示制御装置、表示制御方法、及びプログラム | |
JP3610423B2 (ja) | 映像表示システムおよびその臨場感向上方法 | |
CN116490249A (zh) | 信息处理装置、信息处理系统、信息处理方法和信息处理终端 | |
JP2024016623A (ja) | 画像伝達システム、画像伝達方法 | |
US20240020937A1 (en) | Information processing system, information processing method, and program | |
JPWO2019026919A1 (ja) | 画像処理システム、画像処理方法、及びプログラム | |
JP7296735B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2022505977A (ja) | 特殊効果可視化手法 | |
JP5117273B2 (ja) | 画像表示装置 | |
CN114189743B (zh) | 数据传输方法、装置、电子设备和存储介质 | |
Grenader et al. | The VideoMob interactive art installation connecting strangers through inclusive digital crowds | |
JP6700672B2 (ja) | 遠隔コミュニケーションシステム、その制御方法、及びプログラム | |
KR101268640B1 (ko) | 대형 스크린을 위한 디스플레이 시스템 및 그 시스템의 동작 방법 | |
Webb et al. | Choreographic buttons: promoting social interaction through human movement and clear affordances | |
JP2020136821A (ja) | 情報処理装置及びその制御方法、プログラム | |
US9560313B2 (en) | Dialogue system and dialogue method | |
JP5555299B2 (ja) | 画像表示装置、画像表示方法、および画像表示用プログラム | |
CN118200650A (zh) | 直播展示方法和终端 | |
JP2024101541A (ja) | 拡張現実環境における2dコンテンツのニューラル拡張 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240311 |