JP6074894B2 - Information display device - Google Patents
Information display device Download PDFInfo
- Publication number
- JP6074894B2 JP6074894B2 JP2012039147A JP2012039147A JP6074894B2 JP 6074894 B2 JP6074894 B2 JP 6074894B2 JP 2012039147 A JP2012039147 A JP 2012039147A JP 2012039147 A JP2012039147 A JP 2012039147A JP 6074894 B2 JP6074894 B2 JP 6074894B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- hmd
- display
- processing unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000005540 biological transmission Effects 0.000 claims description 36
- 239000000203 mixture Substances 0.000 claims description 30
- 238000003384 imaging method Methods 0.000 claims description 19
- 238000006243 chemical reaction Methods 0.000 claims description 7
- 238000004891 communication Methods 0.000 description 80
- 101100347655 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) NAB3 gene Proteins 0.000 description 60
- 238000000034 method Methods 0.000 description 39
- 230000015654 memory Effects 0.000 description 32
- 238000001514 detection method Methods 0.000 description 19
- 230000008569 process Effects 0.000 description 17
- 230000005236 sound signal Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 11
- 210000003128 head Anatomy 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 230000007246 mechanism Effects 0.000 description 8
- 239000000284 extract Substances 0.000 description 7
- 230000005057 finger movement Effects 0.000 description 6
- 230000004044 response Effects 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 238000005452 bending Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 230000004397 blinking Effects 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000001962 electrophoresis Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000004313 glare Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 229910001220 stainless steel Inorganic materials 0.000 description 1
- 239000010935 stainless steel Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Landscapes
- User Interface Of Digital Computer (AREA)
- Information Transfer Between Computers (AREA)
- Controls And Circuits For Display Device (AREA)
Description
本発明は、情報表示装置に関する。 The present invention relates to information display equipment.
配信する映像に手書きの書き込みができるテレビ会議システムが知られている。このようなテレビ会議システムでは、パソコンから出力された画像、またはカメラで撮像された画像を表示装置に表示し、表示装置上に入力ペンなどで書き込みを行う。 There is known a video conference system capable of handwritten writing on a video to be distributed. In such a video conference system, an image output from a personal computer or an image captured by a camera is displayed on a display device, and writing is performed on the display device with an input pen or the like.
また、特許文献1では、2台の電子カメラを、通信回線を介して相互に接続して、テレビ会議に用いることが開示されている。送信者側の電子カメラは、撮像した画像を受信者側の電子カメラに送信する。送信者側の電子カメラは、タッチタブレット上に送信者が描いたメモ画像(線画)を、自電子カメラの表示部に表示するとともに、受信者側の電子カメラにも送信する。受信者側の電子カメラは、受信した画像に、メモ画像を重ねて表示する。 Patent Document 1 discloses that two electronic cameras are connected to each other via a communication line and used for a video conference. The electronic camera on the sender side transmits the captured image to the electronic camera on the receiver side. The electronic camera on the sender side displays a memo image (line drawing) drawn by the sender on the touch tablet on the display unit of the electronic camera and also transmits it to the electronic camera on the receiver side. The electronic camera on the receiver side displays the memo image superimposed on the received image.
しかしながら、特許文献1の技術では、カメラの撮影方向が移動した場合、表示装置に表示される映像と重畳された線画との関係がずれてしまうため、画像が指し示すものが何であるかが判らなくなくなるという問題があった。このように、特許文献1の技術では、コミュニケーションのミスが発生するという課題があった。 However, in the technique of Patent Document 1, when the shooting direction of the camera is moved, the relationship between the video displayed on the display device and the superimposed line drawing is deviated, so it is not clear what the image points to. There was a problem of disappearing. As described above, the technique of Patent Document 1 has a problem that a communication error occurs.
本発明は、上記の事情に鑑み成されたものであって、端末同士のコミュニケーションのミスを低減できる情報表示装置を提供することを目的とする。 The present invention was made in view of the above circumstances, and an object thereof is to provide an information display equipment that can reduce the mistakes of communication between terminals.
上記目的を達成するため、本発明の一態様に係る情報表示装置は、画像を表示する表示部と、ユーザーの操作を検出する入力部と、被写体を撮像する撮像部と、前記撮像部で得た画像を第1解像度又は前記第1解像度より高解像度の第2解像度に変換する変換部と、前記入力部への操作により前記表示部に前記撮像部で得た画像を重畳表示させる場合、前記変換部で変換された前記第2解像度の画像を前記表示部に表示させる画像合成部と、を備え、前記変換部は、前記撮像部で得た画像を前記第1解像度に変換した後に、前記画像を前記第2解像度に変換する。 In order to achieve the above object, an information display device according to one embodiment of the present invention is obtained by using a display unit that displays an image, an input unit that detects a user operation, an imaging unit that captures a subject, and the imaging unit. When converting the obtained image to the first resolution or the second resolution higher than the first resolution, and displaying the image obtained by the imaging unit on the display unit by operating the input unit, An image synthesis unit that displays the image of the second resolution converted by the conversion unit on the display unit, and the conversion unit converts the image obtained by the imaging unit to the first resolution, and that converts an image into the second resolution.
本実施形態に係る情報表示装置は、画像を一時停止させ静止画としてから、一時停止させた画像に対して線画などを重畳する。この結果、本実施形態によれば、たとえ撮影者が撮影する方向が変わったとしても、正確に画面の画像と線画とを重ねることが可能となるため、端末同士のコミュニケーションのミスを低減できる。 The information display apparatus according to the present embodiment pauses an image to make a still image, and then superimposes a line drawing or the like on the temporarily stopped image. As a result, according to the present embodiment, even if the shooting direction of the photographer changes, it is possible to accurately overlay the screen image and the line drawing, thereby reducing communication errors between terminals.
本実施形態の情報表示装置は、複数の装置間で映像に対して画面に基づくコミュニケーションを行う場合、映像を一時停止させ静止画としてから、その画像に対して線画などを重畳する。
また、本情報表示装置は、最初に静止画を要求した端末がキャプチャーした画像が全端末に配信する。
以下、情報出力装置をヘッドマウントディスプレイに適用した例について説明するが、本発明はこれに限られない。
In the information display apparatus according to the present embodiment, when communication based on a screen is performed on a video between a plurality of apparatuses, the video is temporarily stopped to be a still image, and then a line drawing or the like is superimposed on the image.
In addition, the information display apparatus distributes an image captured by a terminal that first requested a still image to all terminals.
Hereinafter, an example in which the information output apparatus is applied to a head mounted display will be described, but the present invention is not limited to this.
以下、本発明の実施形態について図面を参照しながら説明するが、本発明はこれに限定されない。以下の説明においては、必要に応じてXYZ直交座標系を設定し、このXYZ直交座標系を参照しつつ各部の位置関係について説明する。水平面内の所定方向をX軸方向、水平面内においてX軸方向と直交する方向をY軸方向、X軸方向及びY軸方向のそれぞれと直交する方向(すなわち鉛直方向)をZ軸方向とする。また、X軸、Y軸、及びZ軸まわりの回転(傾斜)方向をそれぞれ、θX、θY、及びθZ方向とする。 Hereinafter, embodiments of the present invention will be described with reference to the drawings, but the present invention is not limited thereto. In the following description, an XYZ orthogonal coordinate system is set as necessary, and the positional relationship of each part will be described with reference to this XYZ orthogonal coordinate system. A predetermined direction in the horizontal plane is defined as an X-axis direction, a direction orthogonal to the X-axis direction in the horizontal plane is defined as a Y-axis direction, and a direction orthogonal to each of the X-axis direction and the Y-axis direction (that is, a vertical direction) is defined as a Z-axis direction. Further, the rotation (inclination) directions around the X axis, Y axis, and Z axis are the θX, θY, and θZ directions, respectively.
図1は、本実施形態のヘッドマウントディスプレイの斜視図である。図2は、本実施形態のヘッドマウントディスプレイを背面側から見た斜視図である。図3は、本実施形態のヘッドマウントディスプレイの装着形態を示す図である。 FIG. 1 is a perspective view of the head mounted display of the present embodiment. FIG. 2 is a perspective view of the head mounted display of the present embodiment as viewed from the back side. FIG. 3 is a diagram showing a mounting form of the head mounted display of the present embodiment.
ヘッドマウントディスプレイ(頭部装着装置)1は、ディスプレイ本体20と、ユーザーの頭部に装着されディスプレイ本体20を支持するヘッドバンド40と、を備えた単眼式のヘッドマウントディスプレイである。本実施形態のヘッドマウントディスプレイ1は、図3に示すように、両眼どちらでも使用可能である。図3(A)には、ユーザーが右眼で表示部60を見ている状態、図3(B)には左眼で見ている状態が示されている。また図2に示すように、ディスプレイ本体20とヘッドバンド40とは、連結ピン41を介して着脱可能に構成されている。
なお、図1及び図2では、ディスプレイ本体20の長手方向をY軸方向、ヘッドバンド40がユーザーの頭部を挟持する方向をX軸方向としている。
The head mounted display (head mounted device) 1 is a monocular head mounted display including a display main body 20 and a headband 40 that is mounted on a user's head and supports the display main body 20. The head mounted display 1 of the present embodiment can be used with both eyes as shown in FIG. FIG. 3A shows a state where the user is viewing the display unit 60 with the right eye, and FIG. 3B shows a state where the user is viewing with the left eye. As shown in FIG. 2, the display main body 20 and the headband 40 are configured to be detachable via a connecting pin 41.
1 and 2, the longitudinal direction of the display main body 20 is defined as the Y-axis direction, and the direction in which the headband 40 sandwiches the user's head is defined as the X-axis direction.
以下、ヘッドマウントディスプレイ1の各部の構成について詳細に説明する。
ディスプレイ本体20は、主要回路を内蔵するとともに操作部や各種インターフェースを備えた装置本体部21と、装置本体部21の先端に連結された表示部60とを有する。
Hereinafter, the configuration of each part of the head mounted display 1 will be described in detail.
The display main body 20 includes a device main body 21 that includes a main circuit and includes an operation unit and various interfaces, and a display unit 60 that is connected to the tip of the device main body 21.
装置本体部21は、図4に示す概略板状の筐体21Aを有する。本実施形態では、装置本体部21においてヘッドバンド40との接続部が設けられている側の端部(+Y側の端部)を基端部とし、この基端部と反対側の端部(−Y側の端部)を先端部とする。また、装置本体部21をヘッドバンド40に装着した状態で、装置本体部21のヘッドバンド40側(+X側)を内側、ヘッドバンド40と反対側(−X側)を外側とする。 The apparatus main body 21 has a substantially plate-shaped housing 21A shown in FIG. In the present embodiment, an end portion (+ Y side end portion) on the side where the connection portion with the headband 40 is provided in the apparatus main body portion 21 is a base end portion, and an end portion on the opposite side of the base end portion ( The end on the -Y side) is the tip. Further, in a state where the apparatus main body 21 is attached to the headband 40, the headband 40 side (+ X side) of the apparatus main body 21 is the inside, and the opposite side (−X side) from the headband 40 is the outside.
装置本体部21の外面には、図1に示すように、メインスイッチ28と、タッチスイッチ34(入力部)と、集音マイク24とが、筐体21Aの長手方向に沿って配置されている。
メインスイッチ28はディスプレイ本体20の電源のオンオフ操作を行うスイッチである。タッチスイッチ34は、表面に手指等で触れることによりヘッドマウントディスプレイ1の各種操作を行うことができるタッチパネルである。集音マイク24は、環境音を収集する外部マイクである。
As shown in FIG. 1, a main switch 28, a touch switch 34 (input unit), and a sound collecting microphone 24 are disposed on the outer surface of the apparatus main body 21 along the longitudinal direction of the housing 21A. .
The main switch 28 is a switch for turning on / off the power of the display body 20. The touch switch 34 is a touch panel that can perform various operations of the head mounted display 1 by touching the surface with a finger or the like. The sound collection microphone 24 is an external microphone that collects environmental sounds.
装置本体部21内面の基端部側に、図2に示すように、耳元スピーカー23と、オーディオコネクター26と、連結孔31を有するヘッドバンドヒンジ32とが設けられている。装置本体部21内面の中央部に心拍数センサー137が設けられている。装置本体部21の内側面の先端部には通話マイク37が設けられている。 As shown in FIG. 2, an ear speaker 23, an audio connector 26, and a headband hinge 32 having a connection hole 31 are provided on the base end side of the inner surface of the apparatus main body 21. A heart rate sensor 137 is provided at the center of the inner surface of the apparatus main body 21. A call microphone 37 is provided at the tip of the inner side surface of the apparatus main body 21.
耳元スピーカー23は、ユーザーの耳の近傍に配置される。耳元スピーカー23からユーザーに音声情報が伝えられる。オーディオコネクター26は、例えば図示しないイヤホンが接続される音声入出力端子である。ヘッドバンドヒンジ32はヘッドバンド40とのジョイント部である。通話マイク37にはユーザーの音声が入力される。 The ear speaker 23 is disposed in the vicinity of the user's ear. Audio information is transmitted from the ear speaker 23 to the user. The audio connector 26 is an audio input / output terminal to which an earphone (not shown) is connected, for example. The headband hinge 32 is a joint part with the headband 40. The voice of the user is input to the call microphone 37.
心拍数センサー137は、ユーザーの顔の表面に接触させることでユーザーの心拍数を測定するセンサーである。心拍数センサー137は、発光ダイオード等を備えた発光部と、ユーザーの皮膚内部で反射した光を検知する受光部とを有する。心拍数センサー137は、血流の変化による反射光量の変化を検出することで心拍数をカウントする。心拍数センサー137はユーザーの目の近くに配置されるが、発光部から赤外域の光を射出させる構成とすればユーザーにまぶしさを感じさせることはない。 The heart rate sensor 137 is a sensor that measures a user's heart rate by contacting the surface of the user's face. The heart rate sensor 137 includes a light emitting unit including a light emitting diode and the like, and a light receiving unit that detects light reflected inside the user's skin. The heart rate sensor 137 counts the heart rate by detecting a change in the amount of reflected light due to a change in blood flow. The heart rate sensor 137 is disposed near the user's eyes, but if the configuration is such that infrared light is emitted from the light emitting unit, the user will not feel glare.
装置本体部21の基端部側の側端面には、USBコネクター25と、操作スイッチ30と、ビデオコネクター27とが設けられている。
USBコネクター25はUSB(Universal Serial Bus)デバイスの接続端子である。本実施形態では、例えば図5に示すリモコン(リモートコントローラー)140が接続される。
操作スイッチ30は、例えばトラックボールやスティックなどのポインティングデバイスである。操作スイッチ30は表示部60に表示される画面に正対するように設けられている。これにより、操作スイッチ30における操作の左右方向と、上記画面の左右方向とが一致するので、ユーザーは画面を見ながら直感的に操作スイッチ30を操作することが可能である。
ビデオコネクター27は映像入出力端子である。
A USB connector 25, an operation switch 30, and a video connector 27 are provided on the side end surface of the apparatus main body 21 on the base end side.
The USB connector 25 is a connection terminal of a USB (Universal Serial Bus) device. In the present embodiment, for example, a remote controller (remote controller) 140 shown in FIG. 5 is connected.
The operation switch 30 is a pointing device such as a trackball or a stick. The operation switch 30 is provided so as to face the screen displayed on the display unit 60. As a result, the left-right direction of the operation on the operation switch 30 matches the left-right direction of the screen, so that the user can intuitively operate the operation switch 30 while looking at the screen.
The video connector 27 is a video input / output terminal.
図4は、本実施形態のディスプレイ本体20の水平断面図である。
図4に示すように、装置本体部21には、筐体21Aの長手方向に沿って延びる板状の回路基板29と、バッテリー33とが内蔵されている。回路基板29には、図示略の制御回路、電源回路等が実装されており、図示略の配線を介してディスプレイ本体20の各部と電気的に接続されている。
FIG. 4 is a horizontal sectional view of the display main body 20 of the present embodiment.
As shown in FIG. 4, the apparatus body 21 includes a plate-like circuit board 29 extending along the longitudinal direction of the housing 21 </ b> A and a battery 33. A control circuit, a power supply circuit, and the like (not shown) are mounted on the circuit board 29, and are electrically connected to each part of the display body 20 via wiring (not shown).
装置本体部21の外面に露出するタッチスイッチ34の内側には、液晶パネルからなる表示パネル36と、バックライト35とが配置されている。本実施形態では、表示パネル36の表示画像がタッチスイッチ34を透過して表示される。表示パネル36及びバックライト35を、有機ELパネルや電気泳動パネルとしてもよい。 A display panel 36 made of a liquid crystal panel and a backlight 35 are arranged inside the touch switch 34 exposed on the outer surface of the apparatus main body 21. In the present embodiment, the display image on the display panel 36 is displayed through the touch switch 34. The display panel 36 and the backlight 35 may be an organic EL panel or an electrophoresis panel.
ヘッドバンドヒンジ32は、筐体21Aに設けられた凹曲面状の収容部32aと、収容部32aに嵌合された球状部32bとからなるボールジョイントである。球状部32bは、球面状の側面部と、この側面部を挟むように互いに平行に形成された2つの平面部を有する。2つの平面部を垂直に貫くように連結孔31が形成されている。連結孔31は軸方向視で六角形状に形成されている。連結孔31にヘッドバンド40の連結ピン41が挿入されることによりディスプレイ本体20とヘッドバンド40とが連結される。 The headband hinge 32 is a ball joint composed of a concavely curved housing portion 32a provided in the housing 21A and a spherical portion 32b fitted to the housing portion 32a. The spherical portion 32b has a spherical side surface portion and two plane portions formed in parallel to each other so as to sandwich the side surface portion. A connecting hole 31 is formed so as to penetrate the two flat portions vertically. The connection hole 31 is formed in a hexagonal shape when viewed in the axial direction. The display main body 20 and the headband 40 are connected by inserting the connection pin 41 of the headband 40 into the connection hole 31.
ヘッドバンドヒンジ32を備えていることで、ディスプレイ本体20は、図1に示したA方向(ヘッドバンドヒンジ32を中心とするX軸回り)に回動させることができる。本実施形態において、ディスプレイ本体20の回転可能範囲は270°程度とされる。このX軸回りの回転動作により、図3(A)に示す右眼で画像を観察する形態と、図3(B)に示す左眼で画像を観察する形態との切替機能が実現される。 By providing the headband hinge 32, the display main body 20 can be rotated in the A direction (around the X axis centering on the headband hinge 32) shown in FIG. In the present embodiment, the rotatable range of the display body 20 is about 270 °. By the rotation operation around the X axis, a switching function between a mode in which an image is observed with the right eye shown in FIG. 3A and a mode in which an image is observed with the left eye shown in FIG.
またヘッドバンドヒンジ32はボールジョイントであるため、ディスプレイ本体20は図1に示すB方向(ヘッドバンドヒンジ32を中心とするZ軸回り)に揺動させることもできる。この揺動操作により、ディスプレイ本体20のユーザーの目や耳に対する位置を調整することができる。 Further, since the headband hinge 32 is a ball joint, the display main body 20 can also be swung in the B direction (around the Z axis centering on the headband hinge 32) shown in FIG. By this swinging operation, the position of the display main body 20 relative to the user's eyes and ears can be adjusted.
ヘッドバンドヒンジ32近傍の心拍数センサー137は、装置本体部21の内面から突出するように設けられ、ヘッドマウントディスプレイ1の装着時にユーザーの顔の表面に当接可能とされている。バッテリー33は一次電池、二次電池のいずれであってもよい。 The heart rate sensor 137 in the vicinity of the headband hinge 32 is provided so as to protrude from the inner surface of the apparatus main body 21, and can contact the surface of the user's face when the head mounted display 1 is worn. The battery 33 may be either a primary battery or a secondary battery.
表示部60は、図1及び図2に示すように、装置本体部21の先端部に連結されている。本実施形態において、表示部60のヘッドバンド40側を内側、ヘッドバンド40と反対側を外側とする。表示部60は、上面視(Z軸視)において湾曲した形状を有するアーム部材であり、装置本体部21との連結部から先端側へ向かうに従って内側へ湾曲する形状を有する。表示部60の内面に、ファインダー開口部67が設けられている。表示部60の外面には、カメラ64(撮像部)が設けられている。 As shown in FIGS. 1 and 2, the display unit 60 is connected to the distal end portion of the apparatus main body unit 21. In the present embodiment, the headband 40 side of the display unit 60 is the inside, and the side opposite to the headband 40 is the outside. The display unit 60 is an arm member that has a curved shape in a top view (Z-axis view), and has a shape that curves inward from the connecting portion with the apparatus main body 21 toward the distal end side. A finder opening 67 is provided on the inner surface of the display unit 60. A camera 64 (imaging unit) is provided on the outer surface of the display unit 60.
図4に示すように、表示部60は、ディスプレイヒンジ61を介して装置本体部21と連結されている。ディスプレイヒンジ61は、表示部60の筐体60Aに形成された凹曲面状の収容部61aと、装置本体部21に形成され収容部61aに嵌合された球状部61bとからなるボールジョイントである。 As shown in FIG. 4, the display unit 60 is connected to the apparatus main body 21 via a display hinge 61. The display hinge 61 is a ball joint composed of a concave curved housing 61a formed in the housing 60A of the display 60 and a spherical portion 61b formed in the apparatus main body 21 and fitted in the housing 61a. .
装置本体部21の球状部61bは、装置本体部21の外面先端部に形成された筐体21Aの長手方向に対して斜めに延びる傾斜面に、この傾斜面の法線方向(図4のY’軸方向)に突出するようにして設けられている。 The spherical portion 61b of the apparatus main body 21 has an inclined surface extending obliquely with respect to the longitudinal direction of the casing 21A formed at the front end of the outer surface of the apparatus main body 21, and the normal direction of the inclined surface (Y in FIG. 4). It is provided so as to protrude in the “axial direction”.
表示部60は、ディスプレイヒンジ61の球状部61bに対してY’軸回りに自由に回転させることができる。本実施形態では、ディスプレイヒンジ61が装置本体部21の上記傾斜面に設けられており、表示部60が内側に湾曲した形状を有している。 The display unit 60 can be freely rotated around the Y ′ axis with respect to the spherical portion 61 b of the display hinge 61. In the present embodiment, the display hinge 61 is provided on the inclined surface of the apparatus main body 21, and the display unit 60 has a shape curved inward.
また、ディスプレイヒンジ61がボールジョイントであることから、表示部60は、Y’軸回りの回転面に対して直交する方向(概ねX’軸に沿う方向)の揺動も可能である。この揺動動作により、ユーザーによるファインダー開口部67の位置調整が容易になる。表示部60と装置本体部21との間隔を大きくすれば、表示部60の揺動幅を大きくすることができる。
すなわち、本実施形態によれば、保持部であるディスプレイヒンジ61は、表示部60を、少なくとも1つ以上の軸周りに揺動が可能である。
Further, since the display hinge 61 is a ball joint, the display unit 60 can swing in a direction orthogonal to the rotation plane around the Y ′ axis (generally along the X ′ axis). This swinging operation facilitates position adjustment of the finder opening 67 by the user. If the interval between the display unit 60 and the apparatus main body unit 21 is increased, the swinging width of the display unit 60 can be increased.
That is, according to the present embodiment, the display hinge 61 serving as the holding unit can swing the display unit 60 around at least one axis.
ディスプレイヒンジ61の球状部61bには、球状部61bを高さ方向(Y’軸方向)に貫通する貫通孔61cが形成されている。貫通孔61cを介して、表示部60の内部と装置本体部21の内部とが連通されている。貫通孔61cには不図示のケーブルが挿通される。挿通されたケーブルを介して回路基板29と表示部60の各部とが電気的に接続される。 The spherical portion 61b of the display hinge 61 is formed with a through hole 61c that penetrates the spherical portion 61b in the height direction (Y′-axis direction). The inside of the display unit 60 and the inside of the apparatus main body unit 21 are communicated with each other through the through hole 61c. A cable (not shown) is inserted through the through hole 61c. The circuit board 29 and each part of the display unit 60 are electrically connected via the inserted cable.
表示部60の内部には、バックライト62と、表示パネル63(表示部)と、カメラ64(撮像部)と、プリズム65と、反射ミラー66と、前方ライト68と、前方スピーカー70と、結像レンズ71と、撮像素子72とが設けられている。 Inside the display unit 60, there are a backlight 62, a display panel 63 (display unit), a camera 64 (imaging unit), a prism 65, a reflection mirror 66, a front light 68, and a front speaker 70. An image lens 71 and an image sensor 72 are provided.
プリズム65は、上面視(Z軸視)で略三角形状の第1プリズム65aと第2プリズム65bとを互いの面で貼り合わせた構成を有する。この貼り合わせ面以外の第1プリズム65aの他の二面のうち、一方の面に対向する位置に、液晶パネルからなる表示パネル63が設けられている。表示パネル63の背面に表示パネル63を透過照明するバックライト62が配置されている。第1プリズム65aの他方の面に対向する位置に反射ミラー66が配置されている。反射ミラー66は、ファインダー開口部67のほぼ正面に位置する。 The prism 65 has a configuration in which a substantially triangular first prism 65a and a second prism 65b are bonded to each other on a top view (Z-axis view). A display panel 63 made of a liquid crystal panel is provided at a position facing one of the other two surfaces of the first prism 65a other than the bonding surface. A backlight 62 that transmits and illuminates the display panel 63 is disposed on the back surface of the display panel 63. A reflection mirror 66 is disposed at a position facing the other surface of the first prism 65a. The reflection mirror 66 is located substantially in front of the finder opening 67.
第2プリズム65bの貼り合わせ面以外の他の二面のうち、一方の面はファインダー開口部67に配置されたファインダー接眼面である。第2プリズム65bの他方の面に対向する位置には結像レンズ71を介して撮像素子72が対向配置されている。 Of the two surfaces other than the bonding surface of the second prism 65 b, one surface is a viewfinder eyepiece disposed in the viewfinder opening 67. An imaging element 72 is disposed opposite to the other surface of the second prism 65b via the imaging lens 71.
表示部60において、表示パネル63に表示された画像は、第1プリズム65a、反射ミラー66、第2プリズム65bを介してファインダー開口部67から射出され、ユーザーに観察される。また、ファインダー開口部67を見ているユーザーの目元は、第2プリズム65b及び結像レンズ71を介して撮像素子72上に結像される。撮像素子72を介して取得された目元の画像は、ユーザーの視線の方向や瞬き、表情の解析に用いられる。バックライト62は、撮像素子72による目元撮影の照明装置としても利用される。 In the display unit 60, the image displayed on the display panel 63 is emitted from the finder opening 67 through the first prism 65a, the reflection mirror 66, and the second prism 65b, and is observed by the user. The eye of the user looking at the finder opening 67 is imaged on the image sensor 72 via the second prism 65 b and the imaging lens 71. The eye image acquired through the image sensor 72 is used for analyzing the direction of the user's line of sight, blinking, and facial expression. The backlight 62 is also used as a lighting device for photographing the eye by the image sensor 72.
カメラ64は、例えば500万画素〜1000万画素の撮像素子を有し、オートフォーカス動作が可能に構成される。
本実施形態の場合、カメラ64の撮影方向は、ユーザーの視線方向と一致するように設定される。撮影方向と視線方向との調整は、機械的に行ってもよく、画像処理により行ってもよい。例えば、カメラ64を広角の映像を取得可能に構成し、ユーザーの目元画像から取得した視線方向の情報に基づいて、電気的に捕らえた映像の一部を、視線方向の映像として抜き出して表示パネル63に表示させる。これにより、カメラ64に調整機構を設けることなくユーザー正面の映像の撮影、表示が可能となる。
The camera 64 includes, for example, an image sensor with 5 to 10 million pixels, and is configured to be capable of an autofocus operation.
In the case of this embodiment, the shooting direction of the camera 64 is set so as to coincide with the user's line-of-sight direction. The adjustment between the photographing direction and the line-of-sight direction may be performed mechanically or by image processing. For example, the camera 64 is configured to be able to acquire a wide-angle image, and a part of the electrically captured image is extracted as an image in the line-of-sight direction based on the information on the line-of-sight direction acquired from the user's eye image. 63 is displayed. As a result, it is possible to shoot and display an image in front of the user without providing an adjustment mechanism in the camera 64.
前方ライト68は、例えばLEDライトである。前方ライト68は、赤、緑、青の各色の発光素子を有し、任意の色を任意のタイミングで発光させることが可能に構成してもよい。前方ライト68は、発光色や発光タイミングにより外部に対して情報を表示する装置として用いてもよく、カメラ64で撮影する際の照明装置として用いてもよい。 The front light 68 is, for example, an LED light. The front light 68 may include red, green, and blue light emitting elements, and may be configured to emit any color at any timing. The front light 68 may be used as a device that displays information to the outside depending on the light emission color and the light emission timing, or may be used as an illumination device when photographing with the camera 64.
また、図4では図示を省略したが、本実施形態に係る表示部60にはレーザー発信器が設けられている。レーザー発信器は、例えば前方ライト68の近傍に設けることができる。レーザー発信器から射出される例えば赤色レーザー光を前方に照射することで、レーザー光によるポインティング(指標の表示)が可能である。 Although not shown in FIG. 4, the display unit 60 according to the present embodiment is provided with a laser transmitter. The laser transmitter can be provided in the vicinity of the front light 68, for example. By irradiating, for example, red laser light emitted from a laser transmitter forward, pointing (display of an index) with the laser light is possible.
次に、ヘッドバンド40について、図2を参照しつつ説明する。
ヘッドバンド40は、図2に示すように、ユーザーの頭部を挟持する一対のヘッドパット(装着部材)46、47と、第1ヘッドバンド43と、第2ヘッドバンド44と、回動機構56、57とを備えている。
Next, the headband 40 will be described with reference to FIG.
As shown in FIG. 2, the headband 40 includes a pair of head pads (mounting members) 46 and 47 that sandwich the user's head, a first headband 43, a second headband 44, and a rotation mechanism 56. , 57.
第1ヘッドバンド43は、全体として円弧状を成す弾性部材である。第1ヘッドバンド43の頂部に、第1ヘッドバンド43を折り曲げるためのジョイント部43aが設けられている。第1ヘッドバンド43の両端には、回動機構56、57を構成する軸受部43b、43cがそれぞれ設けられている。軸受部43b、43cよりもさらにバンド先端側に、ヘッドパット46、47が接続される軸受部43d、43eが設けられている。 The first headband 43 is an elastic member having an arc shape as a whole. A joint portion 43 a for bending the first headband 43 is provided on the top of the first headband 43. At both ends of the first headband 43, bearing portions 43b and 43c constituting the rotation mechanisms 56 and 57 are provided, respectively. Bearing portions 43d and 43e to which the head pads 46 and 47 are connected are provided further on the front end side of the band than the bearing portions 43b and 43c.
第2ヘッドバンド44は、全体として円弧状を成す弾性部材である。第2ヘッドバンド44の頂部には、第2ヘッドバンド44を折り曲げるためのジョイント部44aが設けられている。第2ヘッドバンド44の両端には、それぞれ回動機構56、57を構成する軸部材44b、44cが設けられている。 The second headband 44 is an elastic member having an arc shape as a whole. A joint portion 44 a for bending the second headband 44 is provided on the top of the second headband 44. At both ends of the second headband 44, shaft members 44b and 44c constituting rotation mechanisms 56 and 57 are provided.
また本実施形態において、第2ヘッドバンド44は、ステンレス等の金属からなるバネ部材48の表面を樹脂等の柔軟な材料で被覆した構成を有する。この第2ヘッドバンド44のバネ部材48においてユーザーの頭部を挟持するバネ力を発生させる。また第2ヘッドバンド44は第1ヘッドバンド43と比較して広い幅に形成されている。ジョイント部44aの形成部分は他のバンド部分よりもさらに広く形成された標章表示部49とされている。標章表示部49には、シールや印刷により製品タグ等が付される。なお、第2ヘッドバンド44の全体を金属で形成してもよい。 In the present embodiment, the second headband 44 has a configuration in which the surface of the spring member 48 made of a metal such as stainless steel is covered with a flexible material such as a resin. The spring member 48 of the second headband 44 generates a spring force that holds the user's head. The second headband 44 is formed wider than the first headband 43. The formation part of the joint part 44a is a mark display part 49 formed wider than the other band parts. A product tag or the like is attached to the mark display section 49 by sticker or printing. The entire second headband 44 may be made of metal.
ヘッドパット46は、板状の支持板46aと、支持板46aの一面側に設けられた断面アーチ状の弾性部材46bとを有する。支持板46aの弾性部材46bと反対側の面に、当該面に垂直な姿勢で概略六角柱状の連結ピン41が立設されている。連結ピン41は、第1ヘッドバンド43の一方の先端に設けられた軸受部43dに軸支されている。これにより、ヘッドパット46は連結ピン41回りに回転可能である。 The head pad 46 includes a plate-like support plate 46a and an elastic member 46b having an arched cross section provided on one surface side of the support plate 46a. On the surface of the support plate 46a opposite to the elastic member 46b, a substantially hexagonal column-shaped connecting pin 41 is erected in a posture perpendicular to the surface. The connecting pin 41 is pivotally supported by a bearing portion 43 d provided at one end of the first headband 43. As a result, the head pad 46 can rotate around the connecting pin 41.
ヘッドパット47は、板状の支持板47aと、支持板47aの一方の面に設けられた断面アーチ状の弾性部材47bとを有する。支持板47aの弾性部材47bと反対側の面には、軸部材47cが設けられている。軸部材47cは、第1ヘッドバンド43の先端に設けられた軸受部43eに軸支されている。これにより、ヘッドパット47は、軸部材47c回りに回転可能である。 The head pad 47 includes a plate-like support plate 47a and an elastic member 47b having an arcuate cross section provided on one surface of the support plate 47a. A shaft member 47c is provided on the surface of the support plate 47a opposite to the elastic member 47b. The shaft member 47 c is pivotally supported by a bearing portion 43 e provided at the tip of the first headband 43. Thereby, the head pad 47 can rotate around the shaft member 47c.
この構成により、第2ヘッドバンド44は、回動機構56によって第1ヘッドバンド43から離れる方向に回動付勢される一方、回動機構57によって第1ヘッドバンド43に対して所定角度以内の範囲に回動規制される。これにより、第2ヘッドバンド44は第1ヘッドバンド43に対して所定の角度となるように保持される。したがって、回動機構56、57は、ヘッドバンド40における角度保持機構として機能する。 With this configuration, the second headband 44 is urged to rotate in a direction away from the first headband 43 by the rotation mechanism 56, while being within a predetermined angle with respect to the first headband 43 by the rotation mechanism 57. The rotation is restricted to the range. As a result, the second headband 44 is held at a predetermined angle with respect to the first headband 43. Therefore, the rotation mechanisms 56 and 57 function as an angle holding mechanism in the headband 40.
図5は、本実施形態のリモコンを示す斜視図である。
リモコン140は、筐体140Aと、タッチパッド141と、操作スイッチ147と、USBコネクター142と、インジケーター143a、143b、143cと、取付クリップ144と、インジケータースイッチ150と、を備えている。
FIG. 5 is a perspective view showing the remote controller of the present embodiment.
The remote controller 140 includes a housing 140A, a touch pad 141, an operation switch 147, a USB connector 142, indicators 143a, 143b, and 143c, a mounting clip 144, and an indicator switch 150.
リモコン140は、USBケーブル148の一方の端子をUSBコネクター142に接続し、他方の端子を装置本体部21のUSBコネクター25に接続することで、装置本体部21と電気的に接続される。USBケーブル148としては市販のUSBケーブルを用いることができる。本実施形態の場合、USBケーブル148の途中に複数のクリップ149が設けられている。複数のクリップ149は、例えばUSBケーブル148を第2ヘッドバンド44に沿わせた状態で固定するために用いることができる。 The remote controller 140 is electrically connected to the apparatus main body 21 by connecting one terminal of the USB cable 148 to the USB connector 142 and connecting the other terminal to the USB connector 25 of the apparatus main body 21. A commercially available USB cable can be used as the USB cable 148. In the present embodiment, a plurality of clips 149 are provided in the middle of the USB cable 148. The plurality of clips 149 can be used to fix the USB cable 148 along the second headband 44, for example.
リモコン140には、ディスプレイ本体20や他の電子機器と無線通信を行うための通信回路が内蔵されている。通信回路の通信方式としては、例えば、Bluetooth(登録商標)、無線LAN、赤外線通信、UWB(Ultra Wide Band)、Transfer Jetなどを用いることができる。かかる通信回路により、USBケーブル148を接続していなくてもディスプレイ本体20との通信が可能である。 The remote control 140 incorporates a communication circuit for performing wireless communication with the display main body 20 and other electronic devices. As a communication method of the communication circuit, for example, Bluetooth (registered trademark), wireless LAN, infrared communication, UWB (Ultra Wide Band), Transfer Jet, or the like can be used. With such a communication circuit, communication with the display main body 20 is possible even when the USB cable 148 is not connected.
リモコン140には、Gセンサーや加速度センサー、方位センサーが内蔵されていてもよい。これらのセンサーで検出した情報についても、上記した通信回路を介してディスプレイ本体20へ通信可能である。 The remote control 140 may incorporate a G sensor, an acceleration sensor, and a direction sensor. Information detected by these sensors can also be communicated to the display body 20 via the communication circuit described above.
タッチパッド141は筐体140Aの一方の主面に設けられている。タッチパッド141は、ユーザーがタッチすることによりディスプレイ本体20を操作するための操作部である。タッチパッド141の背面側の筐体140A内部には、装置本体部21のタッチスイッチ34と同様に表示パネルやバックライトが設けられていてもよい。 The touch pad 141 is provided on one main surface of the housing 140A. The touch pad 141 is an operation unit for operating the display main body 20 when the user touches. A display panel and a backlight may be provided in the housing 140 </ b> A on the back side of the touch pad 141, similarly to the touch switch 34 of the apparatus main body 21.
操作スイッチ147は、リモコン140やディスプレイ本体20を手動操作するためのスイッチである。操作スイッチ147は、必要に応じて設けられていればよい。筐体140Aの側面に設けられたインジケータースイッチ150は、インジケーター143a〜143cを利用した所定動作を行わせるためのスイッチである。 The operation switch 147 is a switch for manually operating the remote controller 140 and the display main body 20. The operation switch 147 may be provided as necessary. The indicator switch 150 provided on the side surface of the housing 140A is a switch for performing a predetermined operation using the indicators 143a to 143c.
USBコネクター142は、装置本体部21との接続のほか、リモコン140が充電式のバッテリーを内蔵している場合にはリモコン140の充電端子や、PCとの接続にも用いられる。
またリモコン140がバッテリーを内蔵している場合には、装置本体部21への給電端子として用いることもできる。リモコン140のバッテリーを補助電源として使用可能にすることで、装置本体部21のバッテリー容量を小さくでき、装置本体部21を小型軽量化することができる。
The USB connector 142 is used not only for connection with the apparatus main body 21 but also for connection with a charging terminal of the remote control 140 or a PC when the remote control 140 has a built-in rechargeable battery.
When the remote controller 140 has a built-in battery, it can also be used as a power supply terminal for the apparatus main body 21. By making the battery of the remote control 140 usable as an auxiliary power source, the battery capacity of the device main body 21 can be reduced, and the device main body 21 can be reduced in size and weight.
インジケーター143a、143b、143cは、タッチパッド141の周囲に配置されている。本実施形態では、タッチパッド141の一辺に沿う位置にインジケーター143aが配置され、インジケーター143aに対してタッチパッド141を挟んだ反対側にインジケーター143bとインジケーター143cとが配置されている。 Indicators 143a, 143b, and 143c are arranged around the touch pad 141. In the present embodiment, an indicator 143a is disposed at a position along one side of the touch pad 141, and an indicator 143b and an indicator 143c are disposed on the opposite side of the touch pad 141 with respect to the indicator 143a.
インジケーター143a〜143cはLED等の発光素子を備えている。本実施形態では、インジケーター143aは緑色の発光素子、インジケーター143bはオレンジ色の発光素子、インジケーター143cは青色の発光素子をそれぞれ備えている。これらの発光素子は制御されたタイミングでパターン発光可能に構成されている。インジケーター143a〜143cの上記パターン発光は、筐体140A側面のインジケータースイッチ150を操作することでオンオフすることができる。 The indicators 143a to 143c include light emitting elements such as LEDs. In the present embodiment, the indicator 143a includes a green light emitting element, the indicator 143b includes an orange light emitting element, and the indicator 143c includes a blue light emitting element. These light emitting elements are configured to be capable of pattern light emission at controlled timing. The pattern light emission of the indicators 143a to 143c can be turned on and off by operating the indicator switch 150 on the side surface of the housing 140A.
インジケーター143a〜143cのパターン発光は、例えばリモコン140の状態(例えばリモコン140の上下左右の傾き状態)を示すものである。かかるパターン発光を装置本体部21のカメラ64で撮影し、取得した画像を解析することにより、リモコン140の状態を装置本体部21に伝達することが可能である。インジケーター143a〜143cを利用した情報伝達方式は、Bluetooth(登録商標)などの無線通信を用いた場合と比較して電力消費を抑えることができる。 The pattern light emission of the indicators 143a to 143c indicates, for example, the state of the remote controller 140 (for example, the up / down / left / right tilt state of the remote controller 140). It is possible to transmit the state of the remote controller 140 to the apparatus main body 21 by photographing such pattern emission with the camera 64 of the apparatus main body 21 and analyzing the acquired image. The information transmission method using the indicators 143a to 143c can suppress power consumption as compared with the case where wireless communication such as Bluetooth (registered trademark) is used.
取付クリップ144は、筐体140Aのタッチパッド141と反対側の面に設けられている。本実施形態の場合、取付クリップ144は、一端を筐体140Aに固定された側面視S形のバネ板部材である。取付クリップ144により、リモコン140をユーザーの衣服やベルト等に装着することができる。 The attachment clip 144 is provided on the surface of the housing 140A opposite to the touch pad 141. In the case of this embodiment, the attachment clip 144 is an S-shaped spring plate member having one end fixed to the housing 140A. With the attachment clip 144, the remote controller 140 can be attached to a user's clothes, belt, or the like.
図6は、本実施形態のヘッドマウントディスプレイ(以下、HMDと称す)1の機能ブロック図である。
HMD1には、処理部123を中心として種々の電気回路が備えられている。処理部123は、CPU(Central Processing Unit)であり、HMD1の各種回路と接続されるとともに、HMD1を総合的に制御する。
FIG. 6 is a functional block diagram of the head mounted display (hereinafter referred to as HMD) 1 of the present embodiment.
The HMD 1 includes various electric circuits centering on the processing unit 123. The processing unit 123 is a CPU (Central Processing Unit) and is connected to various circuits of the HMD 1 and comprehensively controls the HMD 1.
バッテリー33は、電力を電源回路120に供給する。
電源回路120は、バッテリー33から供給された電力を、処理部123の制御によりHMD1の各部に供給する。
The battery 33 supplies power to the power supply circuit 120.
The power supply circuit 120 supplies the power supplied from the battery 33 to each unit of the HMD 1 under the control of the processing unit 123.
本実施形態の場合、処理部123には、エンコーダー129及びデコーダー121、電源回路120、BLドライバ126、操作スイッチ30、フラッシュメモリー122、BT通信回路130、WiFi通信回路131、加速度センサー132、地磁気センサー133、前方ライト68、3G/LTE通信回路138、レーザー発信器73、角速度センサー134、GPSセンサー135、温湿度センサー136、心拍数センサー137、メモリー127、メインスイッチ28、タッチスイッチ34が接続されている。 In the present embodiment, the processing unit 123 includes an encoder 129 and a decoder 121, a power supply circuit 120, a BL driver 126, an operation switch 30, a flash memory 122, a BT communication circuit 130, a WiFi communication circuit 131, an acceleration sensor 132, and a geomagnetic sensor. 133, front light 68, 3G / LTE communication circuit 138, laser transmitter 73, angular velocity sensor 134, GPS sensor 135, temperature / humidity sensor 136, heart rate sensor 137, memory 127, main switch 28, and touch switch 34 are connected. Yes.
エンコーダー129は音声信号及び映像信号を所定方式の音声データ及び映像データにエンコード(符号化)する。エンコーダー129には、カメラ64、撮像素子72、集音マイク24、通話マイク37、オーディオコネクター26、ビデオコネクター27が接続されている。 The encoder 129 encodes (encodes) the audio signal and the video signal into audio data and video data of a predetermined method. Connected to the encoder 129 are a camera 64, an image sensor 72, a sound collection microphone 24, a call microphone 37, an audio connector 26, and a video connector 27.
エンコーダー129には、集音マイク24及び通話マイク37から入力される音声信号、カメラ64から入力される映像信号、オーディオコネクター26から入力される音声信号、ビデオコネクター27から入力される映像信号、及び、ユーザーの目元を撮影する撮像素子72の映像信号が入力される。エンコーダー129に入力された音声信号及び映像信号は音声データ及び映像データにエンコードされた後、処理部123に入力される。入力された音声データ及び映像データは、処理部123による再生動作に用いられたり、フラッシュメモリー122に記録される。 The encoder 129 includes an audio signal input from the sound collection microphone 24 and the call microphone 37, a video signal input from the camera 64, an audio signal input from the audio connector 26, a video signal input from the video connector 27, and The video signal of the image sensor 72 that captures the user's eyes is input. The audio signal and video signal input to the encoder 129 are encoded into audio data and video data, and then input to the processing unit 123. The input audio data and video data are used for a reproduction operation by the processing unit 123 or recorded in the flash memory 122.
デコーダー121は、音声データ及び映像データを音声信号及び映像信号にデコード(復号化)する。デコーダー121には、LCDドライバ125、スピーカーアンプ162、オーディオコネクター26、及びビデオコネクター27が接続されている。LCDドライバ125は液晶パネル用の駆動制御装置であり、表示パネル36及び表示パネル63に接続されている。スピーカーアンプ162は音声信号を増幅してスピーカーに出力する装置であり、耳元スピーカー23及び前方スピーカー70に接続されている。 The decoder 121 decodes (decodes) audio data and video data into audio signals and video signals. An LCD driver 125, a speaker amplifier 162, an audio connector 26, and a video connector 27 are connected to the decoder 121. The LCD driver 125 is a drive control device for a liquid crystal panel, and is connected to the display panel 36 and the display panel 63. The speaker amplifier 162 is a device that amplifies an audio signal and outputs it to the speaker, and is connected to the ear speaker 23 and the front speaker 70.
映像データを再生する場合、フラッシュメモリー122に記録された映像データ、あるいはエンコーダー129から入力される映像データは、処理部123を介してデコーダー121に入力される。デコーダー121に入力された映像データは、映像信号にデコードされた後、LCDドライバ125を介して表示パネル36、63に供給される。そして、映像信号が入力された表示パネル36又は表示パネル63に映像データに基づく映像が表示される。また、デコーダー121からビデオコネクター27に出力される映像信号は、ビデオコネクター27を介して外部機器に出力される。 When reproducing the video data, the video data recorded in the flash memory 122 or the video data input from the encoder 129 is input to the decoder 121 via the processing unit 123. The video data input to the decoder 121 is decoded into a video signal and then supplied to the display panels 36 and 63 via the LCD driver 125. Then, an image based on the image data is displayed on the display panel 36 or the display panel 63 to which the image signal is input. The video signal output from the decoder 121 to the video connector 27 is output to an external device via the video connector 27.
また映像の表示に際して、処理部123は、必要に応じて表示パネル36用のバックライト35、及び表示パネル63用のバックライト62を点灯させる。BLドライバ126は、バックライト用の駆動制御装置であり、バックライト35及びバックライト62に接続されている。処理部123は、BLドライバ126に駆動信号を送信し、BLドライバ126はバックライト35、62を個々に点灯させる。 When displaying the video, the processing unit 123 turns on the backlight 35 for the display panel 36 and the backlight 62 for the display panel 63 as necessary. The BL driver 126 is a drive control device for the backlight, and is connected to the backlight 35 and the backlight 62. The processing unit 123 transmits a drive signal to the BL driver 126, and the BL driver 126 lights the backlights 35 and 62 individually.
音声データを再生する場合、フラッシュメモリー122に記録された音声データ、あるいはエンコーダー129から入力される音声データは、処理部123を介してデコーダー121に入力される。デコーダー121に入力された音声データは、音声信号にデコードされた後、スピーカーアンプ162を介して耳元スピーカー23及び前方スピーカー70のいずれか一方、又は両方に出力される。そして、音声信号を入力された耳元スピーカー23又は前方スピーカー70から音声が出力される。また、デコーダー121からオーディオコネクター26に出力される音声信号は、オーディオコネクター26を介して不図示のステレオイヤホンに出力される。 When reproducing the audio data, the audio data recorded in the flash memory 122 or the audio data input from the encoder 129 is input to the decoder 121 via the processing unit 123. The audio data input to the decoder 121 is decoded into an audio signal and then output to one or both of the ear speaker 23 and the front speaker 70 via the speaker amplifier 162. Then, sound is output from the ear speaker 23 or the front speaker 70 to which the sound signal is input. The audio signal output from the decoder 121 to the audio connector 26 is output to a stereo earphone (not shown) via the audio connector 26.
本実施形態の場合、耳元スピーカー23及び前方スピーカー70は、モノラル音声の使用を想定しており、耳元スピーカー23及び前方スピーカー70からは左右の音声信号が合成された音が発せられる。
一方、図示しないステレオイヤホンに音声信号が出力される場合、左右のスピーカーに、それぞれ左チャンネル又は右チャンネルの音が出力される。
In the case of this embodiment, the ear speaker 23 and the front speaker 70 are assumed to use monaural sound, and the ear speaker 23 and the front speaker 70 emit a sound in which left and right audio signals are synthesized.
On the other hand, when an audio signal is output to a stereo earphone (not shown), left and right channel sounds are output to the left and right speakers, respectively.
メモリー127には、処理部123によって実行される制御プログラムが記憶されている。
全体の電源のオンオフを行うメインスイッチ28や、画面内でのポインティング操作を行うための操作スイッチ30、あるいはタッチ操作により各種操作を行うタッチスイッチ34がユーザーに操作されると、これらのスイッチから操作に基づく制御信号が処理部123へ出力される。処理部123は、制御信号により操作を検出し、上記の制御プログラムに規定された動作を実行する。
The memory 127 stores a control program executed by the processing unit 123.
When the user operates the main switch 28 for turning on / off the entire power source, the operation switch 30 for performing a pointing operation in the screen, or the touch switch 34 for performing various operations by a touch operation, the operation is performed from these switches. Is output to the processing unit 123. The processing unit 123 detects an operation based on the control signal, and executes an operation defined in the control program.
BT通信回路130は、他の機器とのBluetooth(登録商標)通信を行うための通信回路である。WiFi通信回路131は、他の機器との無線LAN通信(IEEE 802.11)を行うための通信回路である。3G/LTE通信回路138は、他の機器との移動通信を行うための通信回路である。 The BT communication circuit 130 is a communication circuit for performing Bluetooth (registered trademark) communication with other devices. The WiFi communication circuit 131 is a communication circuit for performing wireless LAN communication (IEEE 802.11) with other devices. The 3G / LTE communication circuit 138 is a communication circuit for performing mobile communication with other devices.
加速度センサー132はHMD1の傾き検出に用いられる。地磁気センサー133はHMD1の方角検出に用いられる。角速度センサー(ジャイロセンサー)134はHMD1の回転検出に用いられる。GPSセンサー135はGPS(Global Positioning System)を利用した測位検出に用いられる。温湿度センサー136は環境の温度、湿度の検出に用いられる。心拍数センサー137はユーザーの頬に接触し、ユーザーの心拍数を検出する。 The acceleration sensor 132 is used for detecting the inclination of the HMD 1. The geomagnetic sensor 133 is used for detecting the direction of the HMD 1. An angular velocity sensor (gyro sensor) 134 is used to detect rotation of the HMD 1. The GPS sensor 135 is used for positioning detection using GPS (Global Positioning System). The temperature / humidity sensor 136 is used to detect the temperature and humidity of the environment. The heart rate sensor 137 contacts the user's cheek and detects the user's heart rate.
図7は、本実施形態の処理部123の機能ブロック図である。
図7に示すように、処理部123は、入力検出部301(入力部)、画像切替部302、送受信部303、線画生成部304、カーソル生成部305、アバター選択部306、アバター記憶部307、及び画像合成部308を備えている。なお、図7において、WiFi通信回路131、及び3G/LTE通信回路を総称して、通信インタフェース(131、138)を称する。
FIG. 7 is a functional block diagram of the processing unit 123 of this embodiment.
As illustrated in FIG. 7, the processing unit 123 includes an input detection unit 301 (input unit), an image switching unit 302, a transmission / reception unit 303, a line drawing generation unit 304, a cursor generation unit 305, an avatar selection unit 306, an avatar storage unit 307, And an image composition unit 308. In FIG. 7, the WiFi communication circuit 131 and the 3G / LTE communication circuit are collectively referred to as communication interfaces (131, 138).
入力検出部301は、タッチスイッチ34上で行われた操作の種類を判別し、判別した結果に基づく制御信号を、画像切替部302、送受信部303、アバター選択部306、及び画像合成部308に出力する。タッチスイッチ34上で行われた操作の種類とは、発信の指示、受信の指示、カーソル表示の指示、線画表示の指示等である。入力検出部301は、タッチスイッチ34上の所定の領域がタッチされた場合、タッチされた領域に基づいて、これらの操作の種類を判別する。また、入力検出部301は、カーソル表示時、または線画表示時には、タッチスイッチ34上での指の動きを検出する。
入力検出部301は、カーソル表示の場合、指の動きに応じた位置を示す情報を、カーソル生成部305に出力する。入力検出部301は、線画表示の場合、指の動きに応じた位置を示す情報を、線画生成部304に出力する。
The input detection unit 301 determines the type of operation performed on the touch switch 34, and sends control signals based on the determined result to the image switching unit 302, the transmission / reception unit 303, the avatar selection unit 306, and the image composition unit 308. Output. The types of operations performed on the touch switch 34 are a transmission instruction, a reception instruction, a cursor display instruction, a line drawing display instruction, and the like. When a predetermined area on the touch switch 34 is touched, the input detection unit 301 determines the type of these operations based on the touched area. Further, the input detection unit 301 detects the movement of the finger on the touch switch 34 at the time of cursor display or line drawing display.
In the case of cursor display, the input detection unit 301 outputs information indicating a position corresponding to the finger movement to the cursor generation unit 305. In the case of line drawing display, the input detection unit 301 outputs information indicating the position according to the finger movement to the line drawing generation unit 304.
画像切替部302は、入力検出部301が出力した制御信号に基づき、フラッシュメモリー122から読み出した画像データ、またはエンコーダー129が出力した画像データを画像合成部308に出力する。画像切替部302は、送受信部303が出力した受信信号から画像切替信号を抽出する。画像切替部302は、抽出した画像切替信号に基づき、フラッシュメモリー122から読み出した画像データ、またはエンコーダー129が出力した画像データを画像合成部308に出力する。また、画像切替部302は、入力検出部301が出力した制御信号に基づき、エンコーダー129から出力された画像データ、またはフラッシュメモリー122から読み出した画像データの解像度を変換し、変換した画像データを画像合成部308に出力する。 The image switching unit 302 outputs the image data read from the flash memory 122 or the image data output from the encoder 129 to the image composition unit 308 based on the control signal output from the input detection unit 301. The image switching unit 302 extracts an image switching signal from the reception signal output from the transmission / reception unit 303. The image switching unit 302 outputs the image data read from the flash memory 122 or the image data output by the encoder 129 to the image composition unit 308 based on the extracted image switching signal. The image switching unit 302 converts the resolution of the image data output from the encoder 129 or the image data read from the flash memory 122 based on the control signal output from the input detection unit 301, and converts the converted image data into an image. The data is output to the combining unit 308.
送受信部303は、入力検出部301が出力した制御信号に基づき、画像合成部308が出力した画像データを、通信インタフェース(131、138)を介して送信する。送受信部303は、通信インタフェース(131、138)を介して受信した受信信号を、画像切替部302、線画生成部304、及びカーソル生成部305に出力する。 Based on the control signal output from the input detection unit 301, the transmission / reception unit 303 transmits the image data output from the image composition unit 308 via the communication interfaces (131, 138). The transmission / reception unit 303 outputs reception signals received via the communication interfaces (131, 138) to the image switching unit 302, the line drawing generation unit 304, and the cursor generation unit 305.
線画生成部304は、入力検出部301が出力した指の動きに応じた位置を示す情報に基づき、指の動きに応じた軌跡を伴う線画データを生成する。線画生成部304は、生成した線画データを、画像合成部308に出力する。線画生成部304は、送受信部303が出力した受信信号から線画データを抽出し、抽出した線画データを、画像合成部308に出力する。 The line drawing generation unit 304 generates line drawing data with a locus corresponding to the finger movement based on the information indicating the position corresponding to the finger movement output from the input detection unit 301. The line drawing generation unit 304 outputs the generated line drawing data to the image composition unit 308. The line drawing generation unit 304 extracts line drawing data from the reception signal output from the transmission / reception unit 303, and outputs the extracted line drawing data to the image composition unit 308.
カーソル生成部305は、入力検出部301が出力した指の動きに応じた位置を示す情報に基づき、指の動きに応じた軌跡を伴わないカーソル画像データを生成する。カーソル生成部305は、生成したカーソル画像データを、画像合成部308に出力する。カーソル生成部305は、送受信部303が出力した受信信号から位置情報を伴うカーソル画像データを抽出し、抽出したカーソル画像データを、画像合成部308に出力する。 The cursor generation unit 305 generates cursor image data without a locus corresponding to the finger movement based on the information indicating the position corresponding to the finger movement output from the input detection unit 301. The cursor generation unit 305 outputs the generated cursor image data to the image composition unit 308. The cursor generation unit 305 extracts cursor image data accompanied by position information from the reception signal output from the transmission / reception unit 303 and outputs the extracted cursor image data to the image composition unit 308.
アバター選択部306は、入力検出部301が出力した制御信号に基づき、HMD1のユーザーに対して予め設定されているアバター画像データを、アバター記憶部307から読み出す。アバター選択部306は、送受信部303が出力する受信信号から他のユーザーのアバターを示す情報を抽出する。アバター選択部306は、抽出した他のユーザーのアバターを示す情報に基づき、そのユーザーに対応するアバター画像データを、アバター記憶部307から読み出す。
なお、アバターとは、例えば、HMD1のユーザー、及びHMD1と送受信を行っているユーザーの顔等をイラスト化したものである。アバター選択部306は、読み出したアバターを示す画像データを、画像合成部308に出力する。アバター選択部306は、各種センサー(加速度センサー132、地磁気センサー133、角速度センサー134、GPSセンサー135、温湿度センサー136、心拍数センサー137など)の出力に基づき、HMD1が使用されている環境に関する情報である環境情報を、画像合成部308に出力する。
また、アバター選択部306は、送受信部303が出力する受信信号に基づき、各端末を呼び出し中であることを示す各画像情報(以下、呼び出し中の画像情報ともいう)を生成し、生成した呼び出し中の画像情報を、画像合成部308に出力する。
The avatar selection unit 306 reads avatar image data set in advance for the user of the HMD 1 from the avatar storage unit 307 based on the control signal output by the input detection unit 301. The avatar selection unit 306 extracts information indicating an avatar of another user from the reception signal output from the transmission / reception unit 303. The avatar selection unit 306 reads out avatar image data corresponding to the user from the avatar storage unit 307 based on the extracted information indicating the avatar of the other user.
The avatar is an illustration of the face of the user of HMD1 and the user who is transmitting / receiving to / from HMD1. The avatar selection unit 306 outputs image data indicating the read avatar to the image composition unit 308. The avatar selection unit 306 is based on the output of various sensors (acceleration sensor 132, geomagnetic sensor 133, angular velocity sensor 134, GPS sensor 135, temperature / humidity sensor 136, heart rate sensor 137, etc.) and information on the environment in which HMD1 is used. Is output to the image composition unit 308.
The avatar selection unit 306 generates each piece of image information indicating that each terminal is being called (hereinafter also referred to as image information being called) based on the received signal output from the transmission / reception unit 303, and the generated call The image information inside is output to the image composition unit 308.
アバター記憶部307には、例えば、予め複数のアバター画像データが記憶されている。 In the avatar storage unit 307, for example, a plurality of avatar image data is stored in advance.
画像合成部308は、画像切替部302が出力した画像データと、線画生成部304が出力した線画データと、カーソル生成部305が出力した位置情報を伴うカーソル画像データと、アバター選択部306が出力したアバターを示す画像データとに基づき、画像を合成する。
画像合成部308は、入力検出部301が出力する制御信号が線画表示の指示(第2モード)の場合、表示パネル63に表示されている映像を一時停止して静止画を生成する。画像切替部302は、生成した静止画の画像データ、アバター選択部306から入力された環境情報を、送受信部303、ビデオコネクター27、及びLCDドライバ125に出力する。
なお、表示パネル63に表示される映像とは、フラッシュメモリー122から読み出した画像データ、またはエンコーダー129が出力した画像データ、送受信部303が出力した受信信号に含まれる他端末からの映像データである。
一時停止して生成する画像の解像度は、映像を送信しているときの解像度より高解像度である。静止画の解像度とは、例えば、横が2500画素、縦が1875画素の画像である。なお、画像合成部308は、一時停止の代わりに、ユーザーが線画を描写している期間、または、線画を用いて説明を行っている期間以上のコマ送りをするようにしてもよい。
画像合成部308は、入力検出部301が出力する制御信号がカーソル表示の指示(第1モード)の場合、表示パネルに表示されている映像を一時停止せず、合成した画像データ、及びアバター選択部306から入力された環境情報を、送受信部303、ビデオコネクター27、及びLCDドライバ125に出力する。
The image composition unit 308 outputs image data output from the image switching unit 302, line drawing data output from the line drawing generation unit 304, cursor image data with position information output from the cursor generation unit 305, and output from the avatar selection unit 306. The image is synthesized based on the image data indicating the avatar.
When the control signal output from the input detection unit 301 is a line drawing display instruction (second mode), the image composition unit 308 pauses the video displayed on the display panel 63 and generates a still image. The image switching unit 302 outputs the generated still image data and the environment information input from the avatar selection unit 306 to the transmission / reception unit 303, the video connector 27, and the LCD driver 125.
Note that the video displayed on the display panel 63 is image data read from the flash memory 122, image data output from the encoder 129, or video data from another terminal included in the reception signal output from the transmission / reception unit 303. .
The resolution of the image generated by pausing is higher than the resolution at the time of transmitting the video. The resolution of a still image is, for example, an image having 2500 pixels in the horizontal direction and 1875 pixels in the vertical direction. Note that the image composition unit 308 may perform frame advance over a period during which the user draws a line drawing or a period during which the line drawing is used for explanation, instead of pausing.
When the control signal output from the input detection unit 301 is a cursor display instruction (first mode), the image composition unit 308 does not pause the video displayed on the display panel, and selects the synthesized image data and avatar. The environment information input from the unit 306 is output to the transmission / reception unit 303, the video connector 27, and the LCD driver 125.
次に、HMD1が、他のユーザーが使用しているヘッドマウントディスプレイ500(以下、HMD500という)、PC210、及びPC220と通信を行う場合の手順について説明する。
図8は、本実施形態に係るヘッドマウントディスプレイ1を含む通信システムのシステム構成図である。図9から図19は、本実施形態に係る処理手順の一例を示すフローチャートである。
Next, a procedure when the HMD 1 communicates with the head mounted display 500 (hereinafter referred to as HMD 500), the PC 210, and the PC 220 used by other users will be described.
FIG. 8 is a system configuration diagram of a communication system including the head mounted display 1 according to the present embodiment. 9 to 19 are flowcharts illustrating an example of a processing procedure according to the present embodiment.
図8に示すように、通信システムは、HMD1、HMD500、PC210、PC220、及びサーバー200から構成される。HMD1、HMD500、PC210、PC220、及びサーバー200は、ネットワーク230に接続されている。ネットワーク230は、無線LAN(Local Area Network)、3G回線、LTE回線等を介して接続されているインターネットなどのネットワークである。 As illustrated in FIG. 8, the communication system includes an HMD 1, an HMD 500, a PC 210, a PC 220, and a server 200. The HMD 1, HMD 500, PC 210, PC 220, and server 200 are connected to the network 230. The network 230 is a network such as the Internet connected via a wireless LAN (Local Area Network), a 3G line, an LTE line, or the like.
図8において、HMD1は、図6で説明した構成であるが、処理手順を説明する上で必要な機能部のみを示している。なお、HMD1の表示パネル63を、以後、LCD63という。
HMD500は、図8に示すように、主にフラッシュメモリー522、処理部523、通信インタフェース(531、538)、地磁気センサー533、タッチスイッチ534、表示パネル(表示部)563(以後、LCD563という)、カメラ564を備えている。HMD500の各機能部は、HMD1の各機能部と同等である。
8, the HMD 1 has the configuration described with reference to FIG. 6, but shows only functional units necessary for explaining the processing procedure. The display panel 63 of the HMD 1 is hereinafter referred to as an LCD 63.
As shown in FIG. 8, the HMD 500 mainly includes a flash memory 522, a processing unit 523, communication interfaces (531, 538), a geomagnetic sensor 533, a touch switch 534, a display panel (display unit) 563 (hereinafter referred to as an LCD 563), A camera 564 is provided. Each function part of HMD500 is equivalent to each function part of HMD1.
次に、サーバー200の構成について説明する。
図8に示すように、サーバー200は、処理部201、記憶部202、及び通信インタフェース203を備えている。
Next, the configuration of the server 200 will be described.
As illustrated in FIG. 8, the server 200 includes a processing unit 201, a storage unit 202, and a communication interface 203.
サーバー200の処理部201は、各端末(HMD1、HMD500、PC210、及びPC220)から通信インタフェース203を介して受信した画像データ(動画、静止画、線画等)、音声データ、各端末の環境情報、及び各端末からの要求等の通信記録を、記憶部202に記録する。処理部201は、各端末の要求に応じて、記憶部202に記録してある画像データを読み出し、読み出した画像データを、各端末に送信する。 The processing unit 201 of the server 200 includes image data (moving image, still image, line drawing, etc.) received from each terminal (HMD1, HMD500, PC210, and PC220) via the communication interface 203, audio data, environment information of each terminal, In addition, a communication record such as a request from each terminal is recorded in the storage unit 202. The processing unit 201 reads image data recorded in the storage unit 202 in response to a request from each terminal, and transmits the read image data to each terminal.
記憶部202には、各端末から受信した画像データ(動画、静止画)、音声データ、各端末の環境情報、及び各端末からの要求等の通信記録が記録されている。
通信インタフェース203は、例えば、WiFi通信回路、3G通信回路、LTE通信回路、有線LAN回路等を備えている。
The storage unit 202 stores communication records such as image data (moving images and still images) received from each terminal, audio data, environment information of each terminal, and requests from each terminal.
The communication interface 203 includes, for example, a WiFi communication circuit, a 3G communication circuit, an LTE communication circuit, a wired LAN circuit, and the like.
次に、PC210及びPC220の構成について説明する。PC210及びPC220は、例えば、パーソナルコンピュータである。
PC210は、処理部211、記憶部212、通信インタフェース213、入力部214、表示部215、及びカメラ216を備えている。
PC220は、処理部221、記憶部222、通信インタフェース223、入力部224、表示部225、及びカメラ226を備えている。PC220の各機能部は、PC210の各機能部と同等である。
Next, the configuration of the PC 210 and the PC 220 will be described. The PC 210 and the PC 220 are, for example, personal computers.
The PC 210 includes a processing unit 211, a storage unit 212, a communication interface 213, an input unit 214, a display unit 215, and a camera 216.
The PC 220 includes a processing unit 221, a storage unit 222, a communication interface 223, an input unit 224, a display unit 225, and a camera 226. Each functional unit of the PC 220 is equivalent to each functional unit of the PC 210.
PC210の処理部211は、CPU(中央演算装置)及びGPU(Graphics Processing Unit)等である。処理部211は、通信インタフェース213、入力部214、表示部215、及びカメラ216を制御する。処理部211は、記憶部212に記憶されている画像データ、通信インタフェース213を介して取得した画像データ、カメラ216で撮像された画像データを、後述するように通信インタフェース213介して取得した画像切替信号に基づいて切り替える。処理部211は、切り替えた画像データを通信インタフェース213及びネットワーク230に出力する。処理部211は、記憶部212に記憶されているPC210に対応付けて記憶されているアバター画像データと、通信インタフェース223を介して取得した他の装置のアバター画像データ、および画像切替信号に基づいて切り替えた画像データを合成する。処理部211は、合成した画像データを表示部215に出力する。処理部211は、入力部214の操作に基づき、表示部215上に、カーソル画像、または線画画像を表示するように制御する。処理部211は、通信インタフェース213を介して取得した受信情報に基づき、表示部215上に、カーソル画像、または線画画像を表示するように制御する。
なお、以下、各装置に対応したアバターを、例えば、PC210のアバターという。
The processing unit 211 of the PC 210 is a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), or the like. The processing unit 211 controls the communication interface 213, the input unit 214, the display unit 215, and the camera 216. The processing unit 211 switches the image data stored in the storage unit 212, the image data acquired through the communication interface 213, and the image data captured by the camera 216 through the communication interface 213 as will be described later. Switch based on signal. The processing unit 211 outputs the switched image data to the communication interface 213 and the network 230. The processing unit 211 is based on the avatar image data stored in association with the PC 210 stored in the storage unit 212, the avatar image data of other devices acquired through the communication interface 223, and the image switching signal. Synthesize the switched image data. The processing unit 211 outputs the combined image data to the display unit 215. The processing unit 211 controls to display a cursor image or a line drawing image on the display unit 215 based on the operation of the input unit 214. The processing unit 211 controls to display a cursor image or a line drawing image on the display unit 215 based on the reception information acquired via the communication interface 213.
Hereinafter, an avatar corresponding to each device is referred to as an avatar of the PC 210, for example.
記憶部212は、例えば、メモリー、HDD(ハードディスク)である。記憶部212には、PC210のOS(オペレーション・システム)、HMD1、HMD500及びPC220と通信を行うためのアプリケーション、PC210のユーザーに対して予め設定されているアバター画像データ等が記憶されている。 The storage unit 212 is, for example, a memory or an HDD (hard disk). The storage unit 212 stores an OS (operation system) of the PC 210, an application for communicating with the HMD1, the HMD 500, and the PC 220, avatar image data set in advance for the user of the PC 210, and the like.
通信インタフェース213は、例えば、無線LAN、または有線LAN、3G回線、LTE回線等の通信を行うインタフェースである。通信インタフェース213は、ネットワーク230を介して受信した情報を処理部211に出力する。通信インタフェース213は、処理部211が出力した情報を、ネットワーク230を介して、HMD1、HMD500、PC220、及びサーバー200に送信する。 The communication interface 213 is an interface that performs communication such as a wireless LAN, a wired LAN, a 3G line, an LTE line, or the like. The communication interface 213 outputs information received via the network 230 to the processing unit 211. The communication interface 213 transmits information output from the processing unit 211 to the HMD 1, the HMD 500, the PC 220, and the server 200 via the network 230.
入力部214は、例えば、キーボード、マウス、タブレットと操作ペン等である。入力部214は、入力された情報を、処理部211に出力する。なお、表示部215がタッチパネル機能を有する場合、表示部215は入力部214の機能を兼ねるようにしてもよい。 The input unit 214 is, for example, a keyboard, a mouse, a tablet, and an operation pen. The input unit 214 outputs the input information to the processing unit 211. Note that when the display unit 215 has a touch panel function, the display unit 215 may also function as the input unit 214.
表示部215は、処理部211が出力した画像データに基づく画像を表示する。
一例として、表示部215には、HMD1が撮像した画像、HMD1のアバター、HMD500のアバター、PC220のアバター、PC210の入力部214の操作に応じた線画画像が合成されて表示される。
The display unit 215 displays an image based on the image data output from the processing unit 211.
As an example, the image captured by the HMD 1, the avatar of the HMD 1, the avatar of the HMD 500, the avatar of the PC 220, and the line drawing image corresponding to the operation of the input unit 214 of the PC 210 are combined and displayed on the display unit 215.
カメラ216は、例えば500万画素〜1000万画素の撮像素子を有するCMOS(相補型金属酸化膜半導体)、またはCCD(Charge Coupled Device)である。 The camera 216 is, for example, a CMOS (Complementary Metal Oxide Semiconductor) having an image sensor with 5 to 10 million pixels, or a CCD (Charge Coupled Device).
次にHMD1、HMD500、PC210、及びPC220間で行う通信手順について説明する。なお、図9〜図19の処理において、各端末(HMD1、HMD500、PC210、PC220、及びサーバー200)は、各々の通信インタフェース(131、138、531、538、213、223、及び203)とネットワーク230を介して、通信を行う。 Next, a communication procedure performed between the HMD1, the HMD500, the PC 210, and the PC 220 will be described. 9 to 19, each terminal (HMD1, HMD500, PC210, PC220, and server 200) has a communication interface (131, 138, 531, 538, 213, 223, and 203) and a network. Communication is performed via 230.
まず、HMD1から他の端末に発信する手順について説明する。
(ステップS1)図9に示すように、HMD1のユーザーは、HMD500、PC210、PC220と通信を行うため、HMD1のタッチスイッチ34を操作する。HMD1の処理部123は、タッチスイッチ34が出力した制御信号に基づき、HMD500、PC210、PC220に通信を開始することを示す発信操作を行う。
First, a procedure for making a call from the HMD 1 to another terminal will be described.
(Step S1) As shown in FIG. 9, the user of HMD1 operates the touch switch 34 of HMD1 in order to communicate with HMD500, PC210, and PC220. Based on the control signal output from the touch switch 34, the processing unit 123 of the HMD 1 performs a call operation indicating that communication with the HMD 500, the PC 210, and the PC 220 is started.
(ステップS2)HMD1の処理部123は、HMD1のアバター、HMD500のアバター、PC210のアバター、及びPC220のアバターに、アバター付加情報を付加して、LCD63に表示する。
なお、HMD1のLCD63に表示される画像は、受信した映像と、アバター(含むアバター付加情報)とが、別のレイヤー(層)に表示される。
(Step S2) The processing unit 123 of the HMD 1 adds the avatar additional information to the avatar of the HMD 1, the avatar of the HMD 500, the avatar of the PC 210, and the avatar of the PC 220, and displays them on the LCD 63.
In the image displayed on the LCD 63 of the HMD 1, the received video and the avatar (including avatar additional information) are displayed on different layers.
具体的には、処理部123のアバター選択部306は、HMD1のアバター画像データ、HMD500のアバター画像データ、PC210のアバター画像データ、及びPC220のアバター画像データを、アバター記憶部307から読み出す。次に、アバター選択部306は、送受信部303が出力する受信信号に基づき、HMD500、PC210、及びPC220の各端末に対する呼び出し中の画像情報を生成する。次に、アバター選択部306は、読み出した各アバター画像データ、及び生成した呼び出し中の画像情報を関連付けて画像合成部308に出力する。次に、画像合成部308は、アバター選択部306が出力した画像データを、LCDドライバ125を介して、LCD63に表示する。すなわち、HMD1のLCD63には、HMD1のアバター、HMD500のアバターと呼び出し中の画像、PC210のアバターと呼び出し中の画像、及びPC220のアバターと呼び出し中の画像が表示される。
なお、表示されるアバターは、予めHMD1のユーザーが設定されたもの、もしくはデフォルトであらかじめ設定されたものである。
以下の処理においても、アバター及び、アバター付加情報の表示を処理部123の各部が行う。
Specifically, the avatar selection unit 306 of the processing unit 123 reads the avatar image data of HMD1, the avatar image data of HMD500, the avatar image data of PC210, and the avatar image data of PC220 from the avatar storage unit 307. Next, the avatar selection unit 306 generates image information being called for each terminal of the HMD 500, the PC 210, and the PC 220 based on the reception signal output from the transmission / reception unit 303. Next, the avatar selection unit 306 associates each read avatar image data with the generated image information being called and outputs the image information to the image composition unit 308. Next, the image composition unit 308 displays the image data output from the avatar selection unit 306 on the LCD 63 via the LCD driver 125. That is, the HMD 1 avatar, the HMD 500 avatar and calling image, the PC 210 avatar and calling image, and the PC 220 avatar and calling image are displayed on the LCD 63 of the HMD 1.
The displayed avatar is set in advance by the user of the HMD 1 or set in advance by default.
Also in the following process, each part of the process part 123 performs display of an avatar and avatar additional information.
次に、HMD500の処理部523は、受信した受信信号から、呼び出し情報を抽出する。次に、処理部523は、抽出した呼び出し情報に基づき、処理部523の記憶部からHMD1のアバター画像データを読み出す。次に、処理部221は、抽出した呼び出し情報に基づき、呼び出し中の画像情報を生成する。次に、処理部523は、読み出したHMD1のアバター画像データ、及び生成した呼び出し中の画像情報に基づく画像を、LCD563に表示する。 Next, the processing unit 523 of the HMD 500 extracts call information from the received reception signal. Next, the processing unit 523 reads the avatar image data of the HMD 1 from the storage unit of the processing unit 523 based on the extracted call information. Next, the processing unit 221 generates image information being called based on the extracted call information. Next, the processing unit 523 displays an image based on the read avatar image data of the HMD 1 and the generated image information being called on the LCD 563.
次に、PC210の処理部211は、受信した受信信号から、呼び出し情報を抽出する。次に、処理部211は、抽出した呼び出し情報に基づき、記憶部212からHMD1のアバター画像データを読み出す。次に、処理部211は、抽出した呼び出し情報に基づき、呼び出し中を示す画像情報を生成する。次に、処理部211は、読み出したHMD1のアバター画像データ、及び生成した呼び出し中を示す画像情報に基づく画像を、表示部215に表示する。
次に、PC220の処理部221は、PC210と同様の処理を行い、記憶部222から読み出たHMD1のアバター画像データ、及び生成した呼び出し中を示す画像情報に基づく画像を、表示部225に表示する。
Next, the processing unit 211 of the PC 210 extracts call information from the received reception signal. Next, the processing unit 211 reads the avatar image data of the HMD 1 from the storage unit 212 based on the extracted call information. Next, the processing unit 211 generates image information indicating that a call is in progress based on the extracted call information. Next, the processing unit 211 displays on the display unit 215 an image based on the read avatar image data of the HMD 1 and the generated image information indicating that the call is in progress.
Next, the processing unit 221 of the PC 220 performs processing similar to that of the PC 210 and displays on the display unit 225 an image based on the avatar image data of the HMD 1 read from the storage unit 222 and the generated image information indicating that the call is in progress. To do.
次に、サーバー200の処理部201は、受信した受信信号から、呼び出し情報を抽出する。次に、処理部201は、抽出した呼び出し情報に基づき、HMD1からの呼び出しがあったことを示す呼び出し情報を、例えば時刻情報と関連付けて、記憶部202に記録する。 Next, the processing unit 201 of the server 200 extracts call information from the received reception signal. Next, based on the extracted call information, the processing unit 201 records call information indicating that there is a call from the HMD 1 in the storage unit 202 in association with, for example, time information.
(ステップS3)HMD1の処理部123は、カメラ64が撮像した映像(動画)をLCD63に表示するように制御する。 (Step S <b> 3) The processing unit 123 of the HMD 1 controls to display the video (moving image) captured by the camera 64 on the LCD 63.
(ステップS4)PC210のユーザーは、表示部215に表示された呼び出し中を示す画像を確認し、入力部214を操作して、通話に参加する。PC210の処理部211は、入力部214から入力された情報に基づき、通話に参加することを示す情報(以下、通話参加情報という)を、HMD1、HMD500、PC220、及びサーバー200に送信する。次に、処理部211は、表示部215上に、HMD1のアバター、及びPC210のアバターを表示する。 (Step S <b> 4) The user of the PC 210 confirms the image indicating that the calling is displayed on the display unit 215 and operates the input unit 214 to participate in the call. Based on the information input from the input unit 214, the processing unit 211 of the PC 210 transmits information indicating participation in the call (hereinafter referred to as call participation information) to the HMD1, the HMD 500, the PC 220, and the server 200. Next, the processing unit 211 displays the avatar of the HMD 1 and the avatar of the PC 210 on the display unit 215.
(ステップS5)HMD1の処理部123は、PC210から受信した通話参加情報に基づき、PC210に対する呼び出し中であることを示す画像情報を、LCD63から消去する。
次に、サーバー200の処理部201は、PC210から受信した通話参加情報に基づき、PC210が通話に参加していることを示す情報を記憶部202に記録する。
(Step S <b> 5) Based on the call participation information received from the PC 210, the processing unit 123 of the HMD 1 deletes from the LCD 63 image information indicating that the PC 210 is being called.
Next, the processing unit 201 of the server 200 records information indicating that the PC 210 is participating in a call in the storage unit 202 based on the call participation information received from the PC 210.
(ステップS6)HMD500のユーザーは、LCD563に表示された呼び出し中を示す画像を確認し、タッチスイッチ534を操作して、通話に参加する。なお、この状態において、LCD563上には、HMD1のアバター、及びHMD500のアバターが表示されている。次に、HMD500の処理部523は、タッチスイッチ534から出力された制御信号に基づき、通話参加情報を、HMD1、PC210、及びサーバー200に送信する。 (Step S <b> 6) The user of the HMD 500 confirms the image indicating that the calling is displayed on the LCD 563 and operates the touch switch 534 to participate in the call. In this state, the avatar of HMD1 and the avatar of HMD500 are displayed on the LCD 563. Next, the processing unit 523 of the HMD 500 transmits call participation information to the HMD 1, the PC 210, and the server 200 based on the control signal output from the touch switch 534.
(ステップS7)HMD500の処理部523は、LCD563にPC210のアバターを追加して表示する。
次に、HMD1の処理部123は、HMD500から受信した通話参加情報に基づき、HMD500に対する呼び出し中であることを示す画像情報を、LCD63から消去する。
次に、PC210の処理部211は、HMD500から受信した通話参加情報に基づき、HMD500のアバターを表示部215に表示する。
次に、サーバー200の処理部201は、HMD500から受信した通話参加情報に基づき、HMD500が通話に参加していることを示す情報を記憶部202に記録する。
(Step S7) The processing unit 523 of the HMD 500 adds and displays the avatar of the PC 210 on the LCD 563.
Next, based on the call participation information received from the HMD 500, the processing unit 123 of the HMD 1 erases from the LCD 63 image information indicating that the HMD 500 is being called.
Next, the processing unit 211 of the PC 210 displays the avatar of the HMD 500 on the display unit 215 based on the call participation information received from the HMD 500.
Next, the processing unit 201 of the server 200 records information indicating that the HMD 500 is participating in a call in the storage unit 202 based on the call participation information received from the HMD 500.
ここで、各端末(HMD1、HMD500、PC210、及びPC220)のLCD(63、563)、表示部(215、225)に2つ以上のアバターが表示される場合、各端末の処理部(123、523、211、及び221)は、アバターの表示を、環境情報から経度を算出する。そして、各端末の処理部は、最も東に位置する端末のアバターより右側から順に横に表示するようにしてもよい。
図20は、本実施形態に係るアバターの表示例を示す図である。図20に示した例は、3者が通話に参加している例である。図20に示すように、例えば、HMD1のLCD63上には、画像400が表示される。画像400は、左から順番に、PC220のアバター401、PC210のアバター402、HMD500のアバター403が、画像400の下に表示された例である。図20に示した画像400の例では、HMD500の位置情報が一番、東であったため、HMD500のアバター403が、一番右に表示されている。
Here, when two or more avatars are displayed on the LCD (63, 563) and the display unit (215, 225) of each terminal (HMD1, HMD500, PC210, and PC220), the processing unit (123, 523, 211, and 221) calculate the longitude of the avatar display from the environment information. And you may make it the processing part of each terminal display horizontally in order from the right side from the avatar of the terminal located most east.
FIG. 20 is a diagram illustrating a display example of an avatar according to the present embodiment. The example shown in FIG. 20 is an example in which three parties are participating in a call. As shown in FIG. 20, for example, an image 400 is displayed on the LCD 63 of the HMD 1. The image 400 is an example in which an avatar 401 of the PC 220, an avatar 402 of the PC 210, and an avatar 403 of the HMD 500 are displayed below the image 400 in order from the left. In the example of the image 400 shown in FIG. 20, since the position information of the HMD 500 is the east, the avatar 403 of the HMD 500 is displayed on the rightmost side.
されに3者で会話がなされた場合、各端末の各処理部は、右のアバターに対応する発話者の音声が、右から聞こえるように制御してもよい。すなわち右耳用のスピーカーの方が、左用のスピーカーよりも大きな音が聞こえる。また、各端末の各処理部は、左のアバターの音声が、逆に左側から聞こえるように、左耳用のスピーカーの方がより大きな音を再生するようにしてもよい。このことで、視覚的にも聴覚的にも会話をしている相手の位置を把握できることで、コミュニケーションのしやすい環境を提供している。 In addition, when three parties have a conversation, each processing unit of each terminal may perform control so that the voice of the speaker corresponding to the right avatar can be heard from the right. That is, the right ear speaker can hear a louder sound than the left speaker. Further, each processing unit of each terminal may reproduce a louder sound from the left ear speaker so that the left avatar's voice can be heard from the left side. This makes it possible to grasp the position of the other party who is talking both visually and audibly, thereby providing an environment that facilitates communication.
なお、本実施形態では、アバターを横に並べて表示する例を説明したが、アバターを縦に並べて表示するようにしてもよい。アバターを上下に表示する場合には、各端末の各処理部は、緯度に従って、北に位置する端末のアバターより上から順に縦に、表示するようにしてもよい。
この場合、各端末の各処理部は、上に配置されたアバターからの音声は右側から、下側のアバターからの音声は左側から聞こえるように制御するようにしてもよい。または、各端末の各処理部は、上に配置されたアバターに対応する発話者の音声が上から、下に配置されたアバターに対応する発話者の音声が、下から聞こえるように、音響特性を変えてもよい。
In this embodiment, an example in which avatars are displayed side by side has been described, but avatars may be displayed side by side. When displaying an avatar up and down, each processing unit of each terminal may display vertically in order from the top of the avatar of the terminal located in the north according to the latitude.
In this case, each processing unit of each terminal may be controlled so that the voice from the avatar arranged above can be heard from the right side and the voice from the lower avatar can be heard from the left side. Alternatively, each processing unit of each terminal has an acoustic characteristic so that the voice of the speaker corresponding to the avatar arranged above can be heard from above, and the voice of the speaker corresponding to the avatar arranged below can be heard from below. May be changed.
また、各端末に位置情報の取得手段がない場合、各端末の各処理部は、相手端末のIPアドレスや電話の局番に応じた位置情報を代用するようにしてもよい。相手端末のIPアドレスや電話の局番に応じた位置情報を代用できない場合、各端末の各処理部は、通話に参加した時間順に、各アバターの位置を設定するようにしてもよい。
さらに、各端末の各処理部は、各端末の使用者が発話すると、対応するアバターの口も動くように制御してもよい。
このことで、視覚的にも発話者の認識ができるので、各端末のユーザーは、情報が理解しやすくなるとともに、似た声質の発話者をご認識することも無くなる。
If each terminal does not have a means for acquiring position information, each processing unit of each terminal may substitute position information corresponding to the IP address of the counterpart terminal or the telephone station number. When the position information corresponding to the IP address of the counterpart terminal or the telephone station number cannot be substituted, each processing unit of each terminal may set the position of each avatar in the order of time of participation in the call.
Furthermore, each processing unit of each terminal may control the mouth of the corresponding avatar to move when the user of each terminal speaks.
As a result, the speaker can be recognized visually, so that the user of each terminal can easily understand the information and does not recognize a speaker having a similar voice quality.
次に、HMD1によって撮影された映像を、他の端末に送信する手順を説明する。
(ステップS8)図8に戻って、HMD1のユーザーは、カメラ64が撮像した映像を他の端末に送信するために、タッチスイッチ34の所定の領域をタッチする。なお、送信される映像は、初期状態において低解像度に予め設定されている。低解像度とは、例えば、横が320画素、縦が240画素、1秒あたり30フレームである。なお、低解像度の映像を送信する理由は、限られた、通信インフラの整わない、転送速度の遅いネットワーク環境においても、HMD1のユーザーの首の動きによる映像のブレ等があっても、ある程度追従する画像を送信するためである。
Next, a procedure for transmitting video captured by the HMD 1 to another terminal will be described.
(Step S <b> 8) Returning to FIG. 8, the user of the HMD 1 touches a predetermined area of the touch switch 34 in order to transmit the video captured by the camera 64 to another terminal. The transmitted video is preset to a low resolution in the initial state. The low resolution is, for example, 320 pixels horizontally, 240 pixels vertically, and 30 frames per second. The reason for transmitting low-resolution video is to some extent, even in a network environment where the communication infrastructure is limited and the transfer speed is slow, even if there is blurring of the video due to the movement of the neck of the HMD1 user. This is because an image to be transmitted is transmitted.
(ステップS9)図10に移って、HMD1の処理部123の画像切替部302は、タッチスイッチ34から入力された制御信号に基づき、カメラ64が撮像した画像を低解像度に変換する。処理部123は、変換した低解像度の映像信号、及びHMD1の環境情報を、通話に参加しているHMD500、PC210、及びサーバー200に送信する。 (Step S <b> 9) Moving to FIG. 10, the image switching unit 302 of the processing unit 123 of the HMD 1 converts the image captured by the camera 64 to a low resolution based on the control signal input from the touch switch 34. The processing unit 123 transmits the converted low-resolution video signal and HMD1 environment information to the HMD 500, the PC 210, and the server 200 participating in the call.
(ステップS10)各端末(HMD500、及びPC210)の各処理部(523、及び211)は、HMD1から受信した環境情報に基づき、HMD1のカメラ64が向いている方向(方位)を算出する。各処理部は、算出した方位と、HMD1から受信した映像信号を、LCD563、表示部215に表示する。
サーバー200の処理部201は、HMD1から受信した環境情報に基づき、HMD1のカメラ64が向いている方向(方位)を算出する。処理部201は、算出した方位と、HMD1から受信した映像データを記憶部202に記録する。
(Step S10) Each processing unit (523 and 211) of each terminal (HMD500 and PC210) calculates a direction (azimuth) in which the camera 64 of the HMD1 is facing based on the environment information received from the HMD1. Each processing unit displays the calculated azimuth and the video signal received from the HMD 1 on the LCD 563 and the display unit 215.
The processing unit 201 of the server 200 calculates a direction (azimuth) in which the camera 64 of the HMD 1 is facing based on the environment information received from the HMD 1. The processing unit 201 records the calculated orientation and the video data received from the HMD 1 in the storage unit 202.
(ステップS11)端末HMD1の処理部123は、ステップS4及びS6の通話参加情報に基づき、PC210、及びHMD500との3者通話を開始する。
次に、HMD500の処理部523は、ステップS1、及びS4に基づき、HMD1、及びPC210との3者通話を開始する。
次に、PC210の処理部211は、ステップS1、及びS6に基づき、HMD1、及びHMD500との3者通話を開始する。
次に、サーバー200の処理部201は、ステップS1、S4、及びS6に基づき、3者通話の内容(音声データ、映像データ)の記録を開始する。
(Step S11) The processing unit 123 of the terminal HMD1 starts a three-party call with the PC 210 and the HMD 500 based on the call participation information in steps S4 and S6.
Next, the processing unit 523 of the HMD 500 starts a three-party call with the HMD 1 and the PC 210 based on Steps S1 and S4.
Next, the processing unit 211 of the PC 210 starts a three-party call with the HMD 1 and the HMD 500 based on Steps S1 and S6.
Next, the processing unit 201 of the server 200 starts recording the contents (voice data, video data) of the three-party call based on steps S1, S4, and S6.
(ステップS12)HMD1のユーザーは、カメラ64で撮像された映像の特定の箇所を、通話に参加しているユーザーに示すために、タッチスイッチ34上で予め定められている指の動作を行う。なお、タッチスイッチ34を操作する代わりに、HMD1のユーザーは、例えば2回続けて瞬ききをしても良い。このことはHMD1の撮像素子72によって検出され、タッチスイッチ34への操作と同等として処理される。 (Step S <b> 12) The user of the HMD 1 performs a predetermined finger operation on the touch switch 34 in order to indicate a specific part of the image captured by the camera 64 to the user participating in the call. Instead of operating the touch switch 34, the user of the HMD 1 may blink twice, for example. This is detected by the image sensor 72 of the HMD 1 and processed as being equivalent to an operation on the touch switch 34.
(ステップS13)HMD1の処理部123の画像切替部302は、タッチスイッチ34から入力された制御信号に基づき、カメラ64が撮像した映像信号を中解像度に変換する。
次に、処理部123は、変換した中解像度の映像データ、及び環境情報を通話に参加しているHMD500、PC210、及びサーバー200に送信する。なお、中解像度の映像とは、例えば、横が800画素、縦が600画素である。中解像度の映像を送信する場合、HMD1のユーザーは、他の端末のユーザーに対して、映像を送信することを目的としているため、HMDを装着しているユーザーの首の動きが少なく、すなわち、カメラ64のブレが少ない。このため、処理部123は、ステップS9で設定した低解像度から解像度を中解像度に上げて、他のユーザーが見やすい映像を送信することを目的として、中解像度の映像に切り替える。
(Step S13) The image switching unit 302 of the processing unit 123 of the HMD 1 converts the video signal captured by the camera 64 into a medium resolution based on the control signal input from the touch switch 34.
Next, the processing unit 123 transmits the converted medium resolution video data and environment information to the HMD 500, the PC 210, and the server 200 participating in the call. The medium-resolution video is, for example, 800 pixels in the horizontal direction and 600 pixels in the vertical direction. When transmitting a medium-resolution video, the user of the HMD 1 aims to transmit the video to the user of another terminal, and therefore, the movement of the neck of the user wearing the HMD is small. There is little blur of the camera 64. For this reason, the processing unit 123 switches to the medium resolution video for the purpose of increasing the resolution from the low resolution set in step S9 to the medium resolution and transmitting a video that is easy for other users to view.
なお、通信インフラの環境が悪く、解像度を横が800画素、縦が600画素、30フレーム/秒で送信するだけの通信速度の確保が難しい場合、処理部123は、カメラのブレが少ないと判断されるこの状況において、フレームレートを落とし、例えば8フレーム/秒としてもよい。
また、HMD1の角速度センサー134によって使用者の首の回転が大きいと判断される場合、処理部123は、首の回転による映像の流れに追従するためにフレームレートを30フレーム/秒に保持すると共に、解像度を横が320画素、縦が240画素として送信するようにしてもよい。
If the communication infrastructure environment is poor and it is difficult to secure a communication speed sufficient to transmit at a resolution of 800 pixels in the horizontal direction, 600 pixels in the vertical direction, and 30 frames / second, the processing unit 123 determines that there is little camera shake. In this situation, the frame rate may be decreased, for example, 8 frames / second.
When the angular velocity sensor 134 of the HMD 1 determines that the user's neck rotation is large, the processing unit 123 holds the frame rate at 30 frames / second in order to follow the flow of the image due to the neck rotation. The resolution may be transmitted with 320 pixels in the horizontal direction and 240 pixels in the vertical direction.
(ステップS14)HMD1の処理部123は、タッチスイッチ34から入力された制御信号に基づいて、ユーザーの指の動きに合わせて、図22に示すような水色のカーソル410の画像を、LCD63に表示する。なお、各端末(HMD1、HMD500、及びPC210)のLCD(63、563)、表示部215に表示される画像は、受信した映像と、カーソル画像とが、別のレイヤー(層)に表示、及び記録される。 (Step S14) Based on the control signal input from the touch switch 34, the processing unit 123 of the HMD 1 displays an image of a light blue cursor 410 as shown in FIG. To do. The images displayed on the LCD (63, 563) and the display unit 215 of each terminal (HMD1, HMD500, and PC210) are the received video and the cursor image displayed on different layers, and To be recorded.
具体的には、処理部123のカーソル生成部305は、入力検出部301から出力された制御信号に基づいて、カーソル画像データ、及びカーソル位置情報を生成する。カーソル生成部305は、生成したカーソル画像データ、及びカーソル位置情報を、画像合成部308に出力する。画像合成部308は、入力されたカーソル画像データ、及びカーソル位置情報に基づいて、カメラ64が撮像した画像、または通信インタフェース(131、138)を介して他の端末から受信した画像に、カーソルの画像を重畳して、重畳した画像をLCD63に表示する。
以下の処理においても、カーソル画像の表示を処理部123の各部が行う。
Specifically, the cursor generation unit 305 of the processing unit 123 generates cursor image data and cursor position information based on the control signal output from the input detection unit 301. The cursor generation unit 305 outputs the generated cursor image data and cursor position information to the image composition unit 308. Based on the input cursor image data and the cursor position information, the image composition unit 308 converts the cursor into an image captured by the camera 64 or an image received from another terminal via the communication interface (131, 138). The superimposed images are displayed on the LCD 63.
Also in the following processing, each part of the processing unit 123 displays a cursor image.
図21は、本実施形態に係るLCDまたは表示部に表示される画像の構成の一例を説明する図である。図21に示した例では、レイヤー1(800A)には、受信または送信している画像(映像、または静止画)が表示される。レイヤー2(800B)には、アバターが表示される。レイヤー3(800C)には、HMD1によるカーソル画像が表示され、レイヤー4(800D)には、HMD500による線画が表示され、レイヤー5(800E)には、PC210による線画が表示される。また、各端末(含むサーバー)のフラッシュメモリー(122、522)、記憶部(212、221、及び202)にも、画像は、図21に示したレイヤー構成の画像が、記録される。なお、図21に示したレイヤーの例は一例であり、レイヤーの順番は、この順でなくてもよく、例えば、操作された順にレイヤーに表示するようにしてもよい。 FIG. 21 is a diagram illustrating an example of a configuration of an image displayed on the LCD or the display unit according to the present embodiment. In the example shown in FIG. 21, an image (video or still image) being received or transmitted is displayed on layer 1 (800A). An avatar is displayed on layer 2 (800B). A cursor image by the HMD 1 is displayed on the layer 3 (800C), a line drawing by the HMD 500 is displayed on the layer 4 (800D), and a line drawing by the PC 210 is displayed on the layer 5 (800E). In addition, the images having the layer configuration shown in FIG. 21 are also recorded in the flash memories (122, 522) and the storage units (212, 221 and 202) of each terminal (including server). Note that the example of the layer illustrated in FIG. 21 is an example, and the order of the layers may not be in this order. For example, the layers may be displayed in the order in which they are operated.
図22は、本実施形態に係るカーソルが表示された画像の一例である。図22に示すように、例えば、各端末(HMD1、HMD500、PC210、及びPC220)のLCD(63、563)、表示部(215、225)には、画像400aにおいて、指が指し示している形状のカーソル410が表示される。なお、カーソルの形状は、一例であり、他の形状であってもよい。図22に示した例では、HMD1のユーザーは、画像400a中、値札411を、カーソル410で、指し示している状態である。
なお、HMD1から送信されている画像が動画であるため、HMD1のユーザーが首を動かしてしまうと、送信している映像もずれる。このため、HMD1のユーザーは、カーソルの指し示す位置を変えるために、カーソルの位置を変える場合もある。このため、各装置のLCD、及び表示部に、軌跡の残らないカーソルを表示する。
なお、カーソルの色は、端末毎に、予め定めておくようにしてもよい。本実施例では、HMD1のカーソルが水色、PC210のカーソルが緑、HMD500のカーソルが青に定められている。このように各端末に応じて、カーソルが色分けされるので、コミュニケーションにおけるミスが発生しにくいようになっている。
FIG. 22 is an example of an image on which a cursor according to the present embodiment is displayed. As shown in FIG. 22, for example, the LCD (63, 563) and the display unit (215, 225) of each terminal (HMD1, HMD500, PC210, and PC220) have a shape indicated by a finger in the image 400a. A cursor 410 is displayed. Note that the shape of the cursor is an example, and other shapes may be used. In the example illustrated in FIG. 22, the user of the HMD 1 is in a state of pointing the price tag 411 with the cursor 410 in the image 400 a.
In addition, since the image transmitted from HMD1 is a moving image, if the user of HMD1 moves the neck, the image | video currently transmitted will also shift. For this reason, the user of the HMD 1 may change the position of the cursor in order to change the position indicated by the cursor. For this reason, a cursor having no trace is displayed on the LCD and the display unit of each device.
Note that the color of the cursor may be determined in advance for each terminal. In this embodiment, the HMD1 cursor is light blue, the PC210 cursor is green, and the HMD500 cursor is blue. In this way, the cursor is color-coded according to each terminal, so that mistakes in communication are less likely to occur.
次に、処理部123は、カーソルを表示する位置情報、カーソルの色情報を、HMD500、PC210、及びサーバー200に送信する。
次に、HMD500の処理部523は、受信したカーソルを表示する位置情報、カーソルの色情報に基づき、LCD563上に水色のカーソルの画像を表示する。なお、処理部523は、予め端末毎にカーソルの表示色を定めておくようにしてもよい。この場合、処理部523は、カーソルを表示する位置情報のみを取得し、送信元がHMD1であるため水色のカーソルを表示するようにしてもよい。
次に、PC210の処理部211は、受信したカーソルを表示する位置情報、カーソルの色情報に基づき、表示部225上に水色のカーソルの画像を表示する。
次に、サーバー200の処理部201は、受信したカーソルを表示する位置情報に基づき、HMD1のカーソルの位置情報を記憶部202に記録する。
Next, the processing unit 123 transmits position information for displaying the cursor and cursor color information to the HMD 500, the PC 210, and the server 200.
Next, the processing unit 523 of the HMD 500 displays a light blue cursor image on the LCD 563 based on the received position information for displaying the cursor and the cursor color information. Note that the processing unit 523 may determine the display color of the cursor for each terminal in advance. In this case, the processing unit 523 may acquire only the position information for displaying the cursor and display a light blue cursor because the transmission source is the HMD1.
Next, the processing unit 211 of the PC 210 displays an image of a light blue cursor on the display unit 225 based on the received position information for displaying the cursor and cursor color information.
Next, the processing unit 201 of the server 200 records the position information of the cursor of the HMD 1 in the storage unit 202 based on the received position information for displaying the cursor.
次に、PC210が、受信した映像を一時停止させ、一時停止させた画像上に線画を描く手順について説明する。
(ステップS15)図11に移って、PC210ユーザーは、表示部215上にPC210のカーソル画像が表示されるように、入力部214のマウスを操作する。次に、PC210のユーザーは、静止画を見たいとき、マウスをクリックする。
Next, a procedure in which the PC 210 pauses the received video and draws a line drawing on the paused image will be described.
(Step S15) Moving to FIG. 11, the PC 210 user operates the mouse of the input unit 214 so that the cursor image of the PC 210 is displayed on the display unit 215. Next, the user of the PC 210 clicks the mouse to view a still image.
(ステップS16)PC210の処理部211は、入力部214から入力された情報に基づき、受信している映像を一時停止する。次に、処理部211は、一時停止した静止画を、記憶部212に記録し、さらにHMD1、HMD500、及びサーバー200に送信する。
映像を一時停止する理由は、通信環境によってはHMD1から配信される映像が特定の端末では遅延して表示されていることも想定されるためである。このため、静止画を重畳するには、すべての端末で同じ静止画が表示される必要がある。一時停止した画像を送信することにより、全ての端末で同じ静止画を観察することが可能となる。また、各端末は、静止画に各々線画を重畳しても、線画と静止画との関係が全ての端末で同じになるので、コミュニケーションのミスを減らすことが可能である。
通信速度が十分に早いことが判っている環境においては、ステップS15におけるPC210の操作に対応して、各端末が映像を、一時停止して静止画として表示してもよい。
また、一時停止の操作は、PC210によって行われている例を示しているが、映像の発信元であるHMD1からでも、HMD1と同じ構成要素を有し受信を行っているHMD500からでも可能である。例えば、HMD1から静止画が配信される場合、HMD1のLCD63に表示されている映像の一コマが配信される。
(Step S16) The processing unit 211 of the PC 210 temporarily stops the received video based on the information input from the input unit 214. Next, the processing unit 211 records the paused still image in the storage unit 212 and transmits the still image to the HMD 1, the HMD 500, and the server 200.
The reason for temporarily stopping the video is that it is assumed that the video distributed from the HMD 1 is displayed with a delay on a specific terminal depending on the communication environment. For this reason, in order to superimpose still images, the same still image needs to be displayed on all terminals. By transmitting the paused image, it is possible to observe the same still image on all terminals. In addition, even if each terminal superimposes a line image on a still image, the relationship between the line image and the still image is the same for all terminals, so it is possible to reduce communication errors.
In an environment where it is known that the communication speed is sufficiently high, each terminal may temporarily display the video as a still image in response to the operation of the PC 210 in step S15.
In addition, the pause operation is illustrated as being performed by the PC 210, but it can be performed from the HMD1 that is the transmission source of the video, or from the HMD 500 that has the same components as the HMD1 and is receiving. . For example, when a still image is distributed from the HMD 1, a frame of video displayed on the LCD 63 of the HMD 1 is distributed.
(ステップS17)HMD1の処理部123は、PC210から送信された静止画データを受信し、受信した静止画データをHMD1のフラッシュメモリー122に記録する。
次に、HMD500の処理部523は、PC210から送信された静止画データを受信し、受信した静止画データをHMD500のフラッシュメモリー522に記録する。
次に、サーバー200の処理部201は、PC210から送信された静止画データを受信し、受信した静止画データを記憶部202に記録する。
(Step S <b> 17) The processing unit 123 of the HMD 1 receives the still image data transmitted from the PC 210 and records the received still image data in the flash memory 122 of the HMD 1.
Next, the processing unit 523 of the HMD 500 receives the still image data transmitted from the PC 210 and records the received still image data in the flash memory 522 of the HMD 500.
Next, the processing unit 201 of the server 200 receives the still image data transmitted from the PC 210 and records the received still image data in the storage unit 202.
(ステップS18)PC210のユーザーは、静止画上に線画を表示させるために、例えば、マウスをクリックしたまま、カーソルを表示部225内で移動させることで線画を描く。このとき、表示部225には、例えば、鉛筆のような形状のカーソルが表示されているようにしてもよい。
次に、PC210の処理部211は、入力部214から入力された情報に基づき、緑色の軌跡を伴った線画を、表示部225上に表示する。次に、処理部211は、カーソルの位置情報を、順次、記憶部212に記録する。次に、処理部211は、カーソルの位置情報を、順次、HMD1、HMD500、及びサーバー200に送信する。
なお、PC210による線画の色は、端末毎に予め定めておいてもよく、あるいは、色情報をPC210から他の端末へ送信するようにしてもよい。
(Step S18) In order to display a line drawing on a still image, for example, the user of the PC 210 draws a line drawing by moving the cursor within the display unit 225 while clicking the mouse. At this time, for example, a cursor shaped like a pencil may be displayed on the display unit 225.
Next, the processing unit 211 of the PC 210 displays a line drawing with a green locus on the display unit 225 based on the information input from the input unit 214. Next, the processing unit 211 sequentially records cursor position information in the storage unit 212. Next, the processing unit 211 sequentially transmits the cursor position information to the HMD 1, the HMD 500, and the server 200.
Note that the color of the line drawing by the PC 210 may be determined in advance for each terminal, or color information may be transmitted from the PC 210 to another terminal.
具体的には、処理部123の線画生成部304は、入力検出部301から出力された制御信号に基づいて、線画データを生成する。線画生成部304は、生成した線画データを、画像合成部308に出力する。画像合成部308は、カメラ64が撮像した画像データ、または通信インタフェース(131、138)を介して他の端末から受信した画像データに、入力された線画データを重畳して、重畳した画像データに基づく画像を、LCD63に表示する。
以下の処理においても、線画の表示を処理部123の各部が行う。
Specifically, the line drawing generation unit 304 of the processing unit 123 generates line drawing data based on the control signal output from the input detection unit 301. The line drawing generation unit 304 outputs the generated line drawing data to the image composition unit 308. The image composition unit 308 superimposes the input line drawing data on the image data captured by the camera 64 or the image data received from another terminal via the communication interface (131, 138), and superimposes the superimposed image data. The based image is displayed on the LCD 63.
Also in the following processing, each unit of the processing unit 123 displays a line drawing.
(ステップS19)HMD1の処理部123は、受信したカーソルの位置情報に基づき、LCD63上に、緑色の線画を表示する。次に、処理部123は、カーソルの位置情報に基づき線画データを生成し、生成した線画データを、フラッシュメモリー122に記録する。
次に、HMD500の処理部523は、通受信したカーソルの位置情報に基づき、LCD563上に、緑色の線画を表示する。次に、処理部523は、カーソルの位置情報に基づき線画データを生成し、生成した線画データを、フラッシュメモリー522に記録する。
次に、サーバー200の処理部201は、受信したカーソルの位置情報に基づき、線画データを生成し、生成した線画データを、記憶部202に記録する。
(Step S19) The processing unit 123 of the HMD 1 displays a green line drawing on the LCD 63 based on the received cursor position information. Next, the processing unit 123 generates line drawing data based on the cursor position information, and records the generated line drawing data in the flash memory 122.
Next, the processing unit 523 of the HMD 500 displays a green line drawing on the LCD 563 based on the received position information of the cursor. Next, the processing unit 523 generates line drawing data based on the cursor position information, and records the generated line drawing data in the flash memory 522.
Next, the processing unit 201 of the server 200 generates line drawing data based on the received cursor position information, and records the generated line drawing data in the storage unit 202.
図23は、本実施形態に係る線画の一例である。図23に示した例では、画像400bに、矢印421a、及び文字「OK!」421bが表示されている。この矢印421a、及び文字421bは、PC210のユーザーが、マウスを用いて描写した線画である。また、図23は、例えば、図22において、HMD1のユーザーが、他の端末のユーザーに対して値札411をカーソル410で指し示したが、PC210のユーザーが話題にしたいのは、矢印421aが指し示す先の値札422であることを示している。
このように、線画をカメラ映像に重畳して描画する際には、カメラ映像は静止画であることが望ましい。すなわち、PC210のユーザーの意図に反して、HMD1のユーザーが首を動かしてしまうと、画像が動いてしまい、線画で指し示す被写体の位置が画面上で相対的にずれてしまうからである。しかしながら、静止画が表示されていれば、画像に線画を重畳していっても画像と線画が相対的にずれることはない。このため、HMD1のユーザーが首を動かないように、静止している必要はなく、使いやすいシステムが提供できる。
なお、線画と静止画とは別のレイヤーに記録されており、いつでも線画のみ消去することは可能である。
また、PC210のみではなく、全ての端末は、線画の描画と同時に動画が静止画することが可能である。
FIG. 23 is an example of a line drawing according to the present embodiment. In the example shown in FIG. 23, an arrow 421a and the characters “OK!” 421b are displayed on the image 400b. The arrow 421a and the character 421b are line drawings drawn by the user of the PC 210 using the mouse. 23, for example, in FIG. 22, the user of HMD1 points the price tag 411 to the user of another terminal with the cursor 410, but the user of the PC 210 wants to talk about the destination indicated by the arrow 421a. The price tag 422 is shown.
As described above, when a line image is drawn by being superimposed on a camera image, the camera image is preferably a still image. That is, if the user of the HMD 1 moves his / her head against the intention of the user of the PC 210, the image moves and the position of the subject pointed to by the line drawing is relatively shifted on the screen. However, if a still image is displayed, the image and the line drawing do not relatively shift even if the line drawing is superimposed on the image. For this reason, it is not necessary to be stationary so that the user of the HMD 1 does not move the neck, and an easy-to-use system can be provided.
Note that the line image and the still image are recorded in different layers, and it is possible to delete only the line image at any time.
Further, not only the PC 210 but all terminals are capable of moving a still image at the same time as drawing a line drawing.
次に、画像に重畳されるグリッドを変更する手順を説明する。
(ステップS20)図11に戻って、PC210のユーザーは、入力部214を用いてグリッドの種類を選択する。PC210の処理部211は、入力部214から入力された信号に基づき、選択されたグリッドの種類を示す情報を、HMD1、HMD5、及びサーバー200に送信する。グリッドを表示している理由は、例えば、PC210のユーザーは、画像中の特定の領域について説明を行うためである。
図24は、本実施形態に係るグリッドの一例を示す図である。図25は、本実施形態に係るグリッドの他の例を示す図である。
図24に示した例では、画像400cにおいて、縦線と横線による升目状のグリッド431が表示されている例である。図25に示した例では、画像400dにおいて、縦線と横線、及び同心円によるグリッド441が表示されている例である。なお、図24及び図25において、グリッドを実線で示したが、グリッドは、点線、破線等であってもよい。
このように、PC210のユーザーが、グリッドを変更した場合、他の端末に変更したグリッドの情報を送信する理由は、ユーザーの端末毎にグリッドが異なってしまうとコミュニケーションミスを防ぐためである。
なお、図24、及び図25に示したグリッドは1例であって、他のグリッドを表示するようにしてもよい。また、各端末のLCD、または表示部に表示されるグリッドは、動画や静止画とは別のレイヤーに表示される。
Next, a procedure for changing the grid superimposed on the image will be described.
(Step S20) Returning to FIG. 11, the user of the PC 210 uses the input unit 214 to select the type of grid. Based on the signal input from the input unit 214, the processing unit 211 of the PC 210 transmits information indicating the type of the selected grid to the HMD1, the HMD5, and the server 200. The reason for displaying the grid is, for example, that the user of the PC 210 explains a specific area in the image.
FIG. 24 is a diagram illustrating an example of a grid according to the present embodiment. FIG. 25 is a diagram illustrating another example of the grid according to the present embodiment.
The example illustrated in FIG. 24 is an example in which a grid-like grid 431 including vertical lines and horizontal lines is displayed in the image 400c. The example illustrated in FIG. 25 is an example in which a grid 441 including vertical lines, horizontal lines, and concentric circles is displayed in the image 400d. 24 and 25, the grid is indicated by a solid line, but the grid may be a dotted line, a broken line, or the like.
As described above, when the user of the PC 210 changes the grid, the reason for transmitting the changed grid information to another terminal is to prevent a communication error if the grid is different for each user terminal.
Note that the grids shown in FIGS. 24 and 25 are only examples, and other grids may be displayed. In addition, the grid displayed on the LCD or display unit of each terminal is displayed on a layer different from that of the moving image or the still image.
(ステップS21)PC210の処理部211は、選択されたグリッドに表示を変更する。
次に、HMD1の処理部123は、受信した信号に基づいて、選択されたグリッドに表示を変更する。
次に、HMD5の処理部523は、受信した信号に基づいて、選択されたグリッドに表示を変更する。
次に、サーバー200の処理部201は、受信した信号に基づいて、グリッドの変更を記録する。
(Step S21) The processing unit 211 of the PC 210 changes the display to the selected grid.
Next, the processing unit 123 of the HMD 1 changes the display to the selected grid based on the received signal.
Next, the processing unit 523 of the HMD 5 changes the display to the selected grid based on the received signal.
Next, the processing unit 201 of the server 200 records the grid change based on the received signal.
次に、途中からPC220が通話に参加した場合の処理手順について説明する。
(ステップS22)図12に移って、PC220のユーザーは、表示部225に表示された呼び出し中を示す画像を確認し、入力部224を操作して、通話に参加する。PC220の処理部221は、入力部224から入力された情報に基づき、通話参加情報を、サーバー200に送信する。
次に、処理部221は、表示部225にPC220のアバターを表示するように制御する。
Next, a processing procedure when the PC 220 participates in a call from the middle will be described.
(Step S <b> 22) Moving to FIG. 12, the user of the PC 220 confirms the image indicating that the calling is displayed on the display unit 225 and operates the input unit 224 to participate in the call. The processing unit 221 of the PC 220 transmits call participation information to the server 200 based on the information input from the input unit 224.
Next, the processing unit 221 controls the display unit 225 to display the PC 220 avatar.
(ステップS23)サーバー200の処理部201は、PC220から受信した通話参加情報に基づいて、HMD1、HMD500、PC210、及びPC220に対して、PC220の通話参加処理を行う。具体的には、処理部201は、PC220に他のLCD及び表示部に表示されている画像(含む線画、カーソル、グリッド)と同じ画像データを送信する。処理部221は、HMD1、HMD500、及びPC210に、PC220が通話参加したことを示す情報と、PC220のアバターを表示する指示を送信する。処理部201は、PC220に、HMD1、HMD500、及びPC210のアバターを表示する指示を送信する。
次に、処理部201は、PC220が通話に参加したことを示す情報を、記憶部202に記録する。
(Step S23) Based on the call participation information received from the PC 220, the processing unit 201 of the server 200 performs a call participation process of the PC 220 on the HMD1, the HMD 500, the PC 210, and the PC 220. Specifically, the processing unit 201 transmits the same image data as the images (including line drawings, cursors, and grids) displayed on the other LCD and the display unit to the PC 220. The processing unit 221 transmits information indicating that the PC 220 has joined the call and an instruction to display the avatar of the PC 220 to the HMD 1, the HMD 500, and the PC 210. The processing unit 201 transmits an instruction to display the avatars of the HMD 1, the HMD 500, and the PC 210 to the PC 220.
Next, the processing unit 201 records information indicating that the PC 220 has joined the call in the storage unit 202.
(ステップS24)PC220の処理部221は、サーバー200から受信した画像データに基づく画像を、表示部225に表示する。 (Step S <b> 24) The processing unit 221 of the PC 220 displays an image based on the image data received from the server 200 on the display unit 225.
(ステップS25)HMD1の処理部123は、サーバー200から受信したPC220のアバターを表示する指示に基づいて、LCD63上にPC220のアバターを追加して表示し、PC220に対する呼び出し中であることを示す画像情報を消去する。
次に、HMD500の処理部523は、サーバー200から受信したPC220のアバターを表示する指示に基づいて、LCD563上にPC220のアバターを追加して表示する。
次に、PC210の処理部211は、サーバー200から受信したPC220のアバターを表示する指示に基づいて、表示部215上にPC220のアバターを追加して表示する。
次に、PC220の処理部221は、サーバー200から受信したHMD1、HMD500、及びPC210のアバターを表示する指示に基づいて、表示部225上にHMD1、HMD500、及びPC210のアバターを追加して表示する。
なお、ここで各端末のLCD、表示部に表示されるアバターの表示は、PC220の参加に伴い、各端末の所在地に応じて、右から東経に応じて東に位置する端末より右よりに再度表示し直されるようにしてもよい。
(Step S <b> 25) The processing unit 123 of the HMD 1 additionally displays the avatar of the PC 220 on the LCD 63 based on the instruction to display the avatar of the PC 220 received from the server 200, and an image indicating that the PC 220 is being called Erase information.
Next, the processing unit 523 of the HMD 500 adds and displays the PC 220 avatar on the LCD 563 based on the instruction to display the PC 220 avatar received from the server 200.
Next, the processing unit 211 of the PC 210 adds and displays the avatar of the PC 220 on the display unit 215 based on the instruction to display the avatar of the PC 220 received from the server 200.
Next, the processing unit 221 of the PC 220 adds and displays the avatars of HMD1, HMD500, and PC 210 on the display unit 225 based on the instruction to display the avatars of HMD1, HMD500, and PC 210 received from the server 200. .
The display of the avatar displayed on the LCD and the display unit of each terminal here is again from the right from the terminal located east according to the east longitude from the right according to the location of each terminal with the participation of the PC 220. It may be displayed again.
次に、異なる端末がカーソルや線画を共通の画像上に表示する手順について説明する。
(ステップS26)HMD500のユーザーは、線画を描写するために、タッチスイッチ534上で予め定められている指の動作を行う。HMD500の処理部523は、タッチスイッチ534から入力された制御信号に基づいて、HMD500による線画を表示する指示を、HMD1、PC210、PC220、及びサーバー200に送信する。
Next, a procedure in which different terminals display a cursor and a line drawing on a common image will be described.
(Step S26) The user of the HMD 500 performs a predetermined finger operation on the touch switch 534 to draw a line drawing. The processing unit 523 of the HMD 500 transmits an instruction to display a line drawing by the HMD 500 to the HMD 1, the PC 210, the PC 220, and the server 200 based on the control signal input from the touch switch 534.
(ステップS27)各端末(HMD1、PC210、及びPC220)の処理部(123、211、及び221)は、HMD500から受信した受信信号に基づいて、LCD63、表示部(215、225)上に、赤色の線画を表示する。HMD500の処理部523は、タッチスイッチ534から入力された制御信号に基づいて、LCD563上に、赤色の線画を表示する。すなわち、PC210の線画(緑色)とは、異なる色で表示する。
次に、各端末の処理部は、HMD500から受信した受信信号に基づいて、カーソルの位置情報を、順次、フラッシュメモリー122、記憶部(212、222、202)に記録する。HDM500の処理部523は、タッチスイッチ534から入力された制御信号に基づいて、カーソルの位置情報を、順次、フラッシュメモリー522、記憶部(212、222、202)に記録する。
または、各処理部(123、523、211、221、及び201)は、HMD500のユーザーが描写した線画の画像データをフラッシュメモリー(122、522)、記憶部(212、222、202)に記録する。
なお、各端末のLCD(63、563)、表示部(215、225)には、ステップS16で、PC210により一時停止された画像に、HMD500のユーザーが、タッチスイッチ534で指を動かして描写した線画が重畳されて表示される。
また、HMD500による線画は、送信された画像、及び他の端末が描写した線画と異なるレイヤー情報として、各端末、サーバーに記憶される。
(Step S27) The processing units (123, 211, and 221) of each terminal (HMD1, PC210, and PC220) are red on the LCD 63 and the display units (215, 225) based on the received signal received from the HMD500. Display the line drawing. The processing unit 523 of the HMD 500 displays a red line drawing on the LCD 563 based on the control signal input from the touch switch 534. That is, it is displayed in a color different from the line drawing (green) of the PC 210.
Next, the processing unit of each terminal records the position information of the cursor in the flash memory 122 and the storage unit (212, 222, 202) sequentially based on the received signal received from the HMD 500. Based on the control signal input from the touch switch 534, the processing unit 523 of the HDM 500 sequentially records the cursor position information in the flash memory 522 and the storage units (212, 222, 202).
Alternatively, each processing unit (123, 523, 211, 221 and 201) records the image data of the line drawing drawn by the user of the HMD 500 in the flash memory (122, 522) and the storage unit (212, 222, 202). .
In addition, on the LCD (63, 563) and the display unit (215, 225) of each terminal, the user of the HMD 500 depicted the image temporarily stopped by the PC 210 by moving the finger with the touch switch 534 in step S16. The line drawing is displayed superimposed.
The line drawing by the HMD 500 is stored in each terminal and server as layer information different from the transmitted image and the line drawing drawn by other terminals.
(ステップS28)HMD1のユーザーは、線画を描写するために、タッチスイッチ34上で予め定められている指の動作を行う。HMD1の処理部123は、HMD1による線画を表示する指示を、HMD500、PC210、PC220、及びサーバー200に送信する。 (Step S28) The user of the HMD 1 performs a predetermined finger operation on the touch switch 34 in order to draw a line drawing. The processing unit 123 of the HMD 1 transmits an instruction to display a line drawing by the HMD 1 to the HMD 500, the PC 210, the PC 220, and the server 200.
(ステップS29)各端末の処理部(523,211、及び221)は、HMD1から受信した受信信号に基づいて、LCD563、表示部(215、225)上に、青色の線画を表示する。HMD1の処理部123は、タッチスイッチ34から入力された制御信号に基づいて、LCD63上に、青色の線画を表示する。
次に、各端末の処理部(523、211、221、及び201)は、HMD1から受信した受信信号に基づいて、カーソルの位置情報を、順次、フラッシュメモリー522、記憶部(212、222、202)に記録する。HMD1の処理部123は、タッチスイッチ34から入力された制御信号に基づいて、カーソルの位置情報を、順次、フラッシュメモリー122に記録する。または、処理部(123、523、211、221、及び201)は、HMD1のユーザーが描写した線画の画像データをフラッシュメモリー(122、522)、記憶部(212、222、202)に記録する。
なお、各端末のLCD(63、563)、表示部(215、225)には、ステップS16で、PC210により一時停止された画像に、ステップS18でPC210が描写した緑色の線画、並びにステップS26でHMD500が描画した赤色の線画が、重畳されて表示される。
HMD1による線画を青色(R:0、G:0、B:255)にする理由は、カーソルを水色(R:100、G:100、B:255)で表示したため、同系色で表示することで、どのユーザーが捜査しているかを視覚的にわかりやすくするためである。
(Step S29) The processing units (523, 211, and 221) of each terminal display a blue line drawing on the LCD 563 and the display units (215, 225) based on the reception signal received from the HMD1. The processing unit 123 of the HMD 1 displays a blue line drawing on the LCD 63 based on the control signal input from the touch switch 34.
Next, the processing units (523, 211, 221 and 201) of each terminal sequentially store the cursor position information on the flash memory 522 and the storage units (212, 222, 202) based on the received signals received from the HMD1. ). The processing unit 123 of the HMD 1 sequentially records cursor position information in the flash memory 122 based on the control signal input from the touch switch 34. Alternatively, the processing units (123, 523, 211, 221 and 201) record the line drawing image data drawn by the user of the HMD 1 in the flash memory (122, 522) and the storage unit (212, 222, 202).
Note that the LCD (63, 563) and the display unit (215, 225) of each terminal have a green line drawing drawn by the PC 210 in Step S18 on the image paused by the PC 210 in Step S16, and in Step S26. The red line drawing drawn by the HMD 500 is superimposed and displayed.
The reason why the line drawing by HMD1 is blue (R: 0, G: 0, B: 255) is that the cursor is displayed in light blue (R: 100, G: 100, B: 255). This is to make it easier to visually understand which user is investigating.
次に、他の端末のユーザーの要望によって別の端末の映像を要望された場合、映像が静止画として撮影されて画像情報が共有される場合の処理手順について説明する。
(ステップS30)図13に移って、例えば、HMD500のユーザーが、HMD500の通話マイクを介して、HMD1のカメラ64で撮像された映像の送信を要求する。
次に、HMD1のユーザーは、HMD500のユーザーの要求に応じて、カメラ64が撮像した映像を低解像度で、他の端末に送信するために、タッチスイッチ34の所定の領域をタッチする。なお、初期設定では、映像の送信時の解像度が、低解像度に設定されているが、タッチスイッチ34の操作により、解像度を変更することも可能である。
Next, a description will be given of a processing procedure in a case where a video of another terminal is requested according to a request of a user of another terminal, and the video is captured as a still image and image information is shared.
(Step S30) Moving to FIG. 13, for example, a user of the HMD 500 requests transmission of an image captured by the camera 64 of the HMD 1 via a call microphone of the HMD 500.
Next, in response to a request from the user of the HMD 500, the user of the HMD 1 touches a predetermined area of the touch switch 34 in order to transmit the video captured by the camera 64 to another terminal at a low resolution. In the initial setting, the resolution at the time of video transmission is set to a low resolution. However, the resolution can be changed by operating the touch switch 34.
(ステップS31)HMD1の処理部123は、ステップS29まで表示されていた画像を消去し、LCD63にカメラ64が撮像した画像を表示する。 (Step S <b> 31) The processing unit 123 of the HMD 1 deletes the image that has been displayed up to Step S <b> 29 and displays an image captured by the camera 64 on the LCD 63.
(ステップS32)HMD1の処理部123は、タッチスイッチ34から出力された制御信号に基づき、カメラ64が撮像した映像を低解像度に変換する。処理部123は、変換した低解像度の映像データ、及びHMD1の環境情報を、通話に参加しているHMD500、PC210、PC220及びサーバー200に送信する。 (Step S32) Based on the control signal output from the touch switch 34, the processing unit 123 of the HMD 1 converts the video captured by the camera 64 into a low resolution. The processing unit 123 transmits the converted low-resolution video data and the environment information of the HMD 1 to the HMD 500, the PC 210, the PC 220, and the server 200 participating in the call.
(ステップS33)各端末(HMD500、PC210、及びPC220)の処理部(523、211、及び221)は、HMD1から受信した受信信号に基づいて、LCD563、表示部(215、225)に表示されていた画像と線画の表示を消す。 (Step S33) The processing units (523, 211, and 221) of each terminal (HMD500, PC210, and PC220) are displayed on the LCD 563 and the display units (215, 225) based on the received signal received from the HMD1. Erase the displayed image and line drawing.
(ステップS34)各端末(HMD500、PC210、及びPC220)の処理部(523、211、及び221)は、HMD1から受信した受信信号に基づいて、LCD563、表示部(215、225)にHMD1から受信した低解像度の映像データに基づく映像を表示する。
次に、サーバー200の処理部201は、HMD1から受信した受信信号に基づいて、HMD1から受信した低解像度の映像データを、記憶部202に記録する。
(Step S34) The processing units (523, 211, and 221) of each terminal (HMD500, PC210, and PC220) receive from the HMD1 on the LCD 563 and the display units (215, 225) based on the reception signal received from the HMD1. The video based on the low-resolution video data is displayed.
Next, the processing unit 201 of the server 200 records low-resolution video data received from the HMD 1 in the storage unit 202 based on the reception signal received from the HMD 1.
(ステップS35)HMD500のユーザーは、HMD1に詳細な画像を見るために高解像度の静止画を送信する要求を行うために、タッチスイッチ534の所定の領域をタッチする。次に、HMD500の処理部523は、タッチスイッチ534から入力された制御信号に基づいて、高解像度の静止画を送信する要求を、HMD1に送信する。 (Step S35) The user of the HMD 500 touches a predetermined area of the touch switch 534 to make a request for transmitting a high-resolution still image to the HMD 1 to view a detailed image. Next, the processing unit 523 of the HMD 500 transmits a request for transmitting a high-resolution still image to the HMD 1 based on the control signal input from the touch switch 534.
(ステップS36)HMD1の処理部123は、HMD500から受信した高解像度の静止画を送信する要求を示す情報を、LCD63に表示する。なお、高解像度の静止画とは、例えば、横が2500画素、縦が1875画素の画像である。 (Step S <b> 36) The processing unit 123 of the HMD 1 displays information indicating a request for transmitting a high-resolution still image received from the HMD 500 on the LCD 63. Note that a high-resolution still image is, for example, an image with 2500 pixels in the horizontal direction and 1875 pixels in the vertical direction.
(ステップS37)HMD1の処理部123は、HMD500からの受信信号に基づいて、例えば、HMD1の前方が暗い場合、照明のため前方ライト68を点灯する。 (Step S37) Based on the received signal from the HMD 500, for example, when the front of the HMD 1 is dark, the processing unit 123 of the HMD 1 turns on the front light 68 for illumination.
(ステップS38)図15に移って、HMD1の処理部123は、HMD500からの受信信号に基づいて自動的にカメラ64が撮像した高解像度の静止画データを環境情報と合わせて、HMD500、PC210、PC220、及びサーバー200に送信する。 (Step S38) Moving to FIG. 15, the processing unit 123 of the HMD 1 combines high-resolution still image data automatically captured by the camera 64 based on the received signal from the HMD 500 with the environment information, the HMD 500, the PC 210, The data is transmitted to the PC 220 and the server 200.
(ステップS39)各端末(HMD500、PC210、及びPC220)の処理部(523、211、及び221)は、HMD1から受信した受信信号に基づいて、LCD563、表示部(215、225)にHMD1から受信した高解像度の静止画と環境情報に基づいた情報を表示する。
次に、サーバー200の処理部201は、HMD1から受信した受信信号に基づいて、HMD1から受信した高解像度の静止画を、記憶部202に記録する。
このように、動画での配信が難しい高解像度の映像は、他の端末からの操作に応じて高精細に撮影され、静止画として各端末に配信される。このことで、HMD1が使用されている環境の分析が他者より容易に行うことが可能である。
(Step S39) The processing units (523, 211, and 221) of each terminal (HMD500, PC210, and PC220) receive from the HMD1 on the LCD 563 and the display units (215, 225) based on the received signal received from the HMD1. The high-resolution still image and information based on the environment information are displayed.
Next, the processing unit 201 of the server 200 records the high-resolution still image received from the HMD 1 in the storage unit 202 based on the reception signal received from the HMD 1.
In this way, high-resolution video that is difficult to distribute as a moving image is photographed with high definition in response to an operation from another terminal, and is distributed to each terminal as a still image. This makes it possible to analyze the environment in which the HMD 1 is used more easily than others.
(ステップS40)PC210のユーザーは、入力部214を操作して、HMD1から受信した静止画を表示部215で拡大表示する。PC210の処理部211は、入力部214から入力された制御信号に基づいて、表示画像を拡大する指示を、HMD1、HMD500、PC220、及びサーバー200に送信する。 (Step S40) The user of the PC 210 operates the input unit 214 to enlarge and display the still image received from the HMD 1 on the display unit 215. Based on the control signal input from the input unit 214, the processing unit 211 of the PC 210 transmits an instruction to enlarge the display image to the HMD1, the HMD 500, the PC 220, and the server 200.
(ステップS41)各端末(HMD1、HMD500、及びPC220)の処理部(123、523、及び221)は、PC210から受信した受信信号に基づいて、LCD(63、563)、表示部225上の画像を拡大表示する。
次に、サーバー200の処理部201は、PC210から受信した受信信号に基づいて、拡大された画像データと、画像が拡大されたことを示す情報を記憶部202に記録する。
このように、HMD1から高解像度の静止画データが送られているので、拡大しても画質が劣化することのない画像が各端末に表示される。そして、この高解像度の静止画を一台の端末の操作だけで各端末の画像が自動的に拡大でき、この画像に対して詳細なコミュニケーションを行うことが可能である。
(Step S41) The processing units (123, 523, and 221) of each terminal (HMD1, HMD500, and PC220), based on the received signal received from the PC210, the images on the LCD (63,563) and the display unit 225 Is magnified.
Next, the processing unit 201 of the server 200 records the enlarged image data and information indicating that the image has been enlarged in the storage unit 202 based on the received signal received from the PC 210.
As described above, since high-resolution still image data is sent from the HMD 1, an image that does not deteriorate in image quality even when enlarged is displayed on each terminal. The high-resolution still image can be automatically enlarged by simply operating a single terminal, and detailed communication can be performed on this image.
次に、中解像度の映像を送信する処理について説明する。
(ステップS42)HMD500のユーザーは、HMD1に中解像度の映像を送信してもらう要求を行うために、タッチスイッチ534の所定の領域をタッチする。次に、HMD500の処理部523は、タッチスイッチ534から入力された制御信号に基づいて、中解像度の映像を送信する要求を、HMD1に送信する。
Next, processing for transmitting a medium-resolution video will be described.
(Step S <b> 42) The user of the HMD 500 touches a predetermined area of the touch switch 534 in order to request the HMD 1 to transmit a medium resolution video. Next, the processing unit 523 of the HMD 500 transmits a request for transmitting a medium resolution video to the HMD 1 based on the control signal input from the touch switch 534.
この場合、HMD1のLCD63には、中解像度の映像を要望されている旨の表示がなされる。または、音声通話により要求が送信されるようにしてもよい。この要求に応じる場合、HMD1のユーザーは、画像がブレないようにする必要がある。すなわち、HMD1のユーザーは、あまり首を動かさないように、安定して被写体に対してカメラを向けることが要望されていることが分かる。
このように、各端末のユーザーは、各端末からの映像の要求のレベル(静止画か動画か)が判る。このため、各端末のユーザーは、どのようにしてカメラ64を被写体に対して向ければ良いかがユーザーが分かるため、使いやすいシステムとなっている。
In this case, the LCD 63 of the HMD 1 displays that a medium resolution image is desired. Alternatively, the request may be transmitted by voice call. When responding to this request, the user of the HMD 1 needs to prevent the image from blurring. That is, it can be seen that the user of the HMD 1 is required to stably point the camera at the subject so as not to move the neck much.
In this way, the user of each terminal can know the level of video request from each terminal (still image or moving image). For this reason, since the user of each terminal can know how to point the camera 64 toward the subject, the system is easy to use.
このように、中解像度の映像を送信できるのは、HMD1のユーザーが、比較的安定して被写体に対してカメラ64を向けていられる状態に限られる。このため、中解像度の映像の送信が好ましくないと判断した場合、HMD1のユーザーは、別途音声などによってこれを断ってもよい。このように、HMD1のユーザーの了解を得ることで、HMD1のユーザーがいる環境の画像をそのまま送信することを防ぐこともできる。すなわち、HMD1のユーザーの了解を得ることで、HMD1のユーザーのプライバシーを保護することもできる。
なお、HMD1のユーザーが中解像度の映像の送信を承認したとしても、実際に同ユーザーが移動している最中などで、カメラ64のブレが激しい場合もあるため、HMD1の処理部123は、角速度センサー134によって送信する映像の解像度を設定するようにしてもよい。例えば、角速度センサー134の出力が予め定められている値より大きい場合、HMD1の処理部123は、中解像度の要望が来ても、低解像度かつ高フレームレートで送信を行ってもよい。
As described above, the medium-resolution video can be transmitted only in a state where the user of the HMD 1 can point the camera 64 toward the subject relatively stably. For this reason, when it is determined that transmission of a medium-resolution video is not preferable, the user of the HMD 1 may refuse this by voice or the like. In this way, by obtaining the consent of the HMD1 user, it is possible to prevent the image of the environment where the HMD1 user is present from being transmitted as it is. That is, the privacy of the user of HMD1 can be protected by obtaining the consent of the user of HMD1.
Even if the HMD1 user approves the transmission of the medium-resolution video, the camera 64 may be severely blurred while the user is actually moving. You may make it set the resolution of the image | video transmitted by the angular velocity sensor 134. FIG. For example, when the output of the angular velocity sensor 134 is larger than a predetermined value, the processing unit 123 of the HMD 1 may perform transmission at a low resolution and a high frame rate even when a request for medium resolution is received.
(ステップS43)HMD1の処理部123は、HMD500から受信した中解像度の映像を送信する要求を示す情報を、LCD63に表示する。次に、HMD1のユーザーは、LCD63の表示を確認し、HMD500からの要求を承諾するために、タッチスイッチ34の所定の領域をタッチする。 (Step S <b> 43) The processing unit 123 of the HMD 1 displays information indicating a request for transmitting the medium resolution video received from the HMD 500 on the LCD 63. Next, the user of the HMD 1 confirms the display on the LCD 63 and touches a predetermined area of the touch switch 34 in order to accept the request from the HMD 500.
(ステップS44)HMD1の処理部123は、カメラ64が撮像した中解像度の映像データを環境情報と合わせて、HMD500、PC210、PC220、及びサーバー200に送信する。 (Step S44) The processing unit 123 of the HMD 1 transmits the medium resolution video data captured by the camera 64 to the HMD 500, the PC 210, the PC 220, and the server 200 together with the environment information.
次に、一つの端末が、別の端末からの画像に対して情報を付加して、完成した状態で他の端末に配信する手順を説明する。
(ステップS45)各端末(HMD500、PC210、及びPC220)の処理部(523、211、及び221)は、HMD1から受信した受信信号に基づいて、LCD563、表示部(215、225)にHMD1から受信した中解像度の映像を表示する。
次に、サーバー200の処理部201は、HMD1から受信した受信信号に基づいて、HMD1から受信した中解像度の映像データを、記憶部202に記録する。
Next, a procedure in which one terminal adds information to an image from another terminal and distributes the image to another terminal in a completed state will be described.
(Step S45) The processing units (523, 211, and 221) of each terminal (HMD500, PC210, and PC220) receive the LCD 563 and the display units (215, 225) from the HMD1 based on the received signal received from the HMD1. Displays the medium resolution video.
Next, the processing unit 201 of the server 200 records the medium resolution video data received from the HMD 1 in the storage unit 202 based on the reception signal received from the HMD 1.
(ステップS46)図15に移って、HMD500のユーザーは、HMD1から受信している映像の静止画を記録するために、タッチスイッチ34の所定の領域をタッチする。 (Step S46) Moving to FIG. 15, the user of the HMD 500 touches a predetermined area of the touch switch 34 in order to record a still image of the video received from the HMD 1.
(ステップS47)HMD500の処理部523は、タッチスイッチ534から入力された制御信号に基づいて、HMD1から受信している映像の静止画の画像データを、フラッシュメモリー522に記録する。 (Step S <b> 47) The processing unit 523 of the HMD 500 records the image data of the still image received from the HMD 1 in the flash memory 522 based on the control signal input from the touch switch 534.
(ステップS48)HMD500のユーザーは、静止画に線画を重畳して表示するために、タッチスイッチ534の所定の領域をタッチする。次に、HMD500のユーザーは、タッチスイッチ534上で、指を動かして、線画を描写する。処理部523は、描写された線画を静止画に重畳して、LCD563上に表示する。処理部523は、線画を静止画に重畳した画像データを、フラッシュメモリー522に記録する。 (Step S48) The user of the HMD 500 touches a predetermined area of the touch switch 534 in order to superimpose and display a line image on a still image. Next, the user of the HMD 500 moves a finger on the touch switch 534 to draw a line drawing. The processing unit 523 superimposes the drawn line image on the still image and displays it on the LCD 563. The processing unit 523 records image data in which a line image is superimposed on a still image in the flash memory 522.
(ステップS49)HMD500のユーザーは、フラッシュメモリー522に記録した静止画に線画を重畳した画像データを、HMD1、PC210、PC220、及びサーバー200に送信するために、タッチスイッチ534の所定の領域をタッチする。 (Step S49) The user of the HMD 500 touches a predetermined area of the touch switch 534 in order to transmit the image data in which the line image is superimposed on the still image recorded in the flash memory 522 to the HMD 1, the PC 210, the PC 220, and the server 200. To do.
(ステップS50)HMD500の処理部523は、タッチスイッチ534から入力された制御信号に基づいて、フラッシュメモリー522に記録させた静止画に線画を重畳した画像データを、HMD1、PC210、PC220、及びサーバー200に送信する。 (Step S50) Based on the control signal input from the touch switch 534, the processing unit 523 of the HMD 500 converts the image data obtained by superimposing the line image on the still image recorded in the flash memory 522 to the HMD1, the PC 210, the PC 220, and the server. 200.
(ステップS51)各端末(HMD1、PC210、及びPC220)の処理部(123、211、及び221)は、受信したHMD500から受信した受信信号に基づいて、LCD63、表示部(215、225)にHMD500から受信した静止画に線画が重畳された画像データに基づく画像を表示する。
次に、サーバー200の処理部201は、受信したHMD500から受信した受信信号に基づいて、HMD500から受信した静止画に線画が重畳された画像データを、記憶部202に記録する。
(Step S51) Based on the received signal received from the received HMD 500, the processing units (123, 211, and 221) of each terminal (HMD1, PC 210, and PC 220) send the HMD 500 to the LCD 63 and the display units (215, 225). An image based on the image data in which the line drawing is superimposed on the still image received from is displayed.
Next, the processing unit 201 of the server 200 records, in the storage unit 202, image data in which a line drawing is superimposed on a still image received from the HMD 500 based on the received signal received from the received HMD 500.
次に、別の端末からの映像も切り替える処理、その場合に低解像度の映像をデフォルトで送信する処理について説明する。
(ステップS52)HMD1のユーザーは、HMD500のカメラ564が撮像した映像を閲覧するために、タッチスイッチ34の所定の領域をタッチする。次に、HMD1の処理部123は、HMD500に映像の閲覧要求を送信する。
Next, processing for switching a video from another terminal, and processing for transmitting a low-resolution video by default in that case will be described.
(Step S <b> 52) The user of the HMD 1 touches a predetermined area of the touch switch 34 in order to view the video captured by the camera 564 of the HMD 500. Next, the processing unit 123 of the HMD 1 transmits a video browsing request to the HMD 500.
(ステップS53)HMD500の処理部523は、HMD1から受信した映像を送信する要求を示す情報を、LCD563に表示する。次に、HMD500のユーザーは、LCD563の表示を確認し、HMD1からの要求を承諾するために、タッチスイッチ534の所定の領域をタッチする。 (Step S <b> 53) The processing unit 523 of the HMD 500 displays information indicating a request to transmit the video received from the HMD 1 on the LCD 563. Next, the user of the HMD 500 confirms the display on the LCD 563 and touches a predetermined area of the touch switch 534 in order to accept the request from the HMD 1.
(ステップS54)図16に移って、HMD500の処理部523は、カメラ564が撮像した映像を低解像度に変換する。処理部523は、変換した低解像度の映像信号とHMD500の環境情報とを合わせて、HMD1、PC210、PC220、及びサーバー200に送信する。すなわち、他の端末から、カメラで撮像した画像の送信要求があった場合、各端末の処理部は、まず低解像度の映像を送信する。その後、各端末のユーザーの要求に応じて、解像度を切り替える。 (Step S54) Moving to FIG. 16, the processing unit 523 of the HMD 500 converts the video captured by the camera 564 into a low resolution. The processing unit 523 transmits the converted low-resolution video signal and the environment information of the HMD 500 to the HMD 1, the PC 210, the PC 220, and the server 200. That is, when there is a transmission request for an image captured by a camera from another terminal, the processing unit of each terminal first transmits a low-resolution video. Thereafter, the resolution is switched according to the request of the user of each terminal.
(ステップS55)各端末(HMD1、PC210、及びPC220)の処理部(123、211、及び221)は、受信したHMD500からの受信信号に基づいて、LCD63、表示部(215、225)に、HMD500から受信した低解像度の映像データに基づく映像を表示する。次に、各端末(HMD1、PC210、及びPC220)の処理部(123、211、及び221)は、HMD500からの受信信号に基づいて、HMD500から受信した環境情報に基づいて撮像した方向を算出し、算出した撮像した方向を、LCD63、表示部(215、225)に表示する。
次に、サーバー200の処理部201は、受信したHMD500からの受信信号に基づいて、HMD500から受信した静止画に低解像度の映像データと環境情報とを、記憶部202に記録する。
(Step S55) Based on the received signals from the received HMD 500, the processing units (123, 211, and 221) of the terminals (HMD1, PC 210, and PC 220) transfer the HMD 500 to the LCD 63 and the display units (215, 225). The video based on the low resolution video data received from is displayed. Next, the processing units (123, 211, and 221) of each terminal (HMD1, PC210, and PC220) calculate the imaged direction based on the environment information received from the HMD500, based on the received signal from the HMD500. The calculated imaging direction is displayed on the LCD 63 and the display unit (215, 225).
Next, the processing unit 201 of the server 200 records low-resolution video data and environment information in the still image received from the HMD 500 in the storage unit 202 based on the received signal from the HMD 500.
次に、特定の端末が通話を終了する手順を説明する。
(ステップS56)PC210のユーザーは、接続を終了するために、入力部214を操作する。次に、PC210の処理部211は、入力部214から入力された制御信号に基づいて、接続の終了を示す情報を、HMD1、HMD500、PC220、及びサーバー200に送信する。
Next, a procedure for terminating a call by a specific terminal will be described.
(Step S56) The user of the PC 210 operates the input unit 214 to end the connection. Next, based on the control signal input from the input unit 214, the processing unit 211 of the PC 210 transmits information indicating the end of connection to the HMD1, the HMD 500, the PC 220, and the server 200.
(ステップS57)各端末(HMD1、HMD500、及びPC220)の処理部(123、523、及び221)は、PC210から受信した受信信号に基づいて、LCD(63、563)、表示部225に表示されていたPC210のアバターを消去する。
次に、サーバー200の処理部201は、PC210から受信した受信信号に基づいて、PC210の接続終了を記憶部202に記録する。
(Step S57) The processing units (123, 523, and 221) of each terminal (HMD1, HMD500, and PC220) are displayed on the LCD (63, 563) and the display unit 225 based on the received signal received from the PC210. Delete the avatar of the PC 210 that was being used.
Next, the processing unit 201 of the server 200 records the connection end of the PC 210 in the storage unit 202 based on the received signal received from the PC 210.
(ステップS58)HMD500のユーザーは、接続を終了するために、タッチスイッチ534を操作する。次に、HMD500の処理部523は、入力部214から入力された制御信号に基づいて、接続の終了を示す情報を、HMD1、HMD500、PC220、及びサーバー200に送信する。 (Step S58) The user of the HMD 500 operates the touch switch 534 to end the connection. Next, the processing unit 523 of the HMD 500 transmits information indicating the end of connection to the HMD 1, the HMD 500, the PC 220, and the server 200 based on the control signal input from the input unit 214.
(ステップS59)各端末(HMD1、及びHMD500)の処理部(123、及び523)は、HMD500から受信した受信信号に基づいて、LCD63、表示部225に表示されていたHMD500のアバターを消去する。
次に、サーバー200の処理部201は、HMD500から受信した受信信号に基づいて、HMD500の接続終了を記憶部202に記録する。
(Step S59) The processing units (123 and 523) of each terminal (HMD1 and HMD500) erase the avatar of the HMD 500 displayed on the LCD 63 and the display unit 225 based on the received signal received from the HMD 500.
Next, the processing unit 201 of the server 200 records the connection end of the HMD 500 in the storage unit 202 based on the received signal received from the HMD 500.
次に、各端末のユーザーが、サーバー200に記録された画像(映像、静止画)を呼び出して利用する処理の手順を説明する。
(ステップS60)PC220のユーザーは、サーバー200に記録されている画像を選択するために、入力部224を操作、例えば、キーボードの所定のキーを押す。
Next, a description will be given of a procedure of processing in which the user of each terminal calls and uses an image (video, still image) recorded on the server 200.
(Step S60) In order to select an image recorded in the server 200, the user of the PC 220 operates the input unit 224, for example, presses a predetermined key on the keyboard.
(ステップS61)図17に移って、PC220の表示部225には、サーバー200に記録されている画像の縮小された画像であるサムネイルの一覧表が表示されているとする。PC220のユーザーは、サーバー200に記録されている画像を選択するために、入力部224を操作、例えば、キーボードの所定のキーを押す。なお、サムネイルの一覧表は、PC220のユーザーが、キーボードの所定のキー、マウスの操作により、サーバー200から読み込んで表示するようにしてもよい。 (Step S61) Referring to FIG. 17, it is assumed that a list of thumbnails, which are reduced images of images recorded in the server 200, is displayed on the display unit 225 of the PC 220. The user of the PC 220 operates the input unit 224, for example, presses a predetermined key on the keyboard in order to select an image recorded in the server 200. Note that the thumbnail list may be read from the server 200 and displayed by the user of the PC 220 by operating predetermined keys on the keyboard and the mouse.
(ステップS62)PC220の処理部221は、入力部224から入力された制御信号に基づいて、選択した画像を示す情報を、サーバー200に送信する。 (Step S <b> 62) The processing unit 221 of the PC 220 transmits information indicating the selected image to the server 200 based on the control signal input from the input unit 224.
(ステップS63)サーバー200の処理部201は、PC220から受信した受信信号に基づいて、選択された映像とその映像に関連付けられて記憶部202に記録されている環境情報を読み出す。処理部201は、読み出した環境情報に基づいて、方位を算出する。処理部201は、読み出した映像データと算出した方位情報とを、HMD1、及びPC220に送信する。 (Step S <b> 63) Based on the received signal received from the PC 220, the processing unit 201 of the server 200 reads out the selected video and the environment information recorded in the storage unit 202 in association with the video. The processing unit 201 calculates an orientation based on the read environment information. The processing unit 201 transmits the read video data and the calculated azimuth information to the HMD 1 and the PC 220.
(ステップS64)サーバー200の処理部201は、HMD1、及びPC220に映像データを送信したことを、記憶部202に記録する。
次に、HMD1及びPC220の各処理部(123、及び221)は、サーバー200から受信した映像データと方位情報とに基づく画像を、各々、LCD63、及び表示部225に表示する。
(Step S64) The processing unit 201 of the server 200 records in the storage unit 202 that the video data has been transmitted to the HMD 1 and the PC 220.
Next, the processing units (123 and 221) of the HMD 1 and the PC 220 display images based on the video data and the orientation information received from the server 200 on the LCD 63 and the display unit 225, respectively.
(ステップS65)HMD1のユーザーは、サーバー200から送信されている映像に線画を描写するために、タッチスイッチ34の所定の領域をタッチ(第1操作)する。次に、HMD1の処理部123は、タッチスイッチ34から入力された制御信号に基づいて、送信されている映像を一時停止する要求を、サーバー200に送信する。すなわち、サーバー200から読み出した映像に対して、線画を描写する場合においても、映像を一時停止して静止画を得る。そして、各端末は、この静止画に線画を重畳することができる。 (Step S <b> 65) The user of the HMD 1 touches a predetermined area of the touch switch 34 (first operation) in order to draw a line drawing on the video transmitted from the server 200. Next, the processing unit 123 of the HMD 1 transmits a request for temporarily stopping the transmitted video to the server 200 based on the control signal input from the touch switch 34. That is, even when a line drawing is drawn on the video read from the server 200, the video is paused to obtain a still image. And each terminal can superimpose a line drawing on this still picture.
(ステップS66)サーバー200の処理部201は、HMD1から受信した受信信号に基づいて、送信中の映像データを一時停止する。次に、処理部201は、送信中の映像データを一時停止したことを示す情報を、HMD1、及びPC220に送信する。 (Step S66) The processing unit 201 of the server 200 temporarily stops the video data being transmitted based on the received signal received from the HMD1. Next, the processing unit 201 transmits information indicating that the video data being transmitted has been temporarily stopped to the HMD 1 and the PC 220.
(ステップS67)HMD1、及びPC220の各処理部(123、及び221)は、サーバー200から受信した受信信号に基づいて、一時停止した静止画を、各々、フラッシュメモリー122、記憶部222に記録する。なお、HMD1の処理部123は、ステップS65において、ユーザーがタッチスイッチ34をタッチしたことに基づいて、一時停止した静止画を、フラッシュメモリー122に記録するようにしてもよい。 (Step S67) The processing units (123 and 221) of the HMD 1 and the PC 220 record the paused still images in the flash memory 122 and the storage unit 222, respectively, based on the received signal received from the server 200. . Note that the processing unit 123 of the HMD 1 may record the paused still image in the flash memory 122 based on the user touching the touch switch 34 in step S65.
(ステップS68)図18に移って、HMD1のユーザーは、静止画に線画を重畳して表示するために、タッチスイッチ34の所定の領域をタッチする。次に、HMD1のユーザーは、タッチスイッチ34上で、指を動かして、線画を描写する。次に、HMD1の処理部123は、タッチスイッチ34の指の動きに応じて、カーソルの位置を、順次、PC200、及びサーバー200に送信する。 (Step S <b> 68) Moving to FIG. 18, the user of the HMD 1 touches a predetermined area of the touch switch 34 in order to display a line image superimposed on a still image. Next, the user of the HMD 1 moves a finger on the touch switch 34 to draw a line drawing. Next, the processing unit 123 of the HMD 1 sequentially transmits the cursor position to the PC 200 and the server 200 in accordance with the movement of the finger of the touch switch 34.
(ステップS69)HMD1、及びPC220の各処理部(123、及び221)は、描写された青色の線画を静止画に重畳して、各々、LCD63、表示部225上に表示する。次に、各処理部(123、及び221)は、青色の線画を静止画に重畳した画像データを、各々、フラッシュメモリー122、記憶部222に記録する。 (Step S69) Each processing unit (123 and 221) of the HMD 1 and the PC 220 superimposes the drawn blue line image on the still image and displays it on the LCD 63 and the display unit 225, respectively. Next, each processing unit (123 and 221) records image data in which a blue line image is superimposed on a still image in the flash memory 122 and the storage unit 222, respectively.
(ステップS70)HMD1のユーザーは、一時停止を解除して、映像の送信を再開するために、タッチスイッチ34の所定の領域をタッチする。次に、HMD1の処理部123は、一時停止を解除して、映像の送信を再開する要求を、サーバー200に送信する。 (Step S <b> 70) The user of the HMD 1 touches a predetermined area of the touch switch 34 in order to cancel the temporary stop and resume the transmission of the video. Next, the processing unit 123 of the HMD 1 cancels the temporary stop and transmits a request to resume transmission of video to the server 200.
(ステップS71)サーバー200の処理部201は、HMD1から受信した受信信号に基づいて、一時停止を解除し、映像データの送信を再開する。次に、処理部201は、ステップS69で描写された線画の表示を消去する指示を、HMD1、及びPC220に送信する。 (Step S <b> 71) The processing unit 201 of the server 200 cancels the pause based on the received signal received from the HMD 1 and resumes transmission of video data. Next, the processing unit 201 transmits to the HMD 1 and the PC 220 an instruction to delete the line drawing displayed in step S69.
(ステップS72)HMD1、及びPC220の各処理部(123、及び221)は、サーバー200から受信した受信信号に基づいて、各々、LCD63、表示部225に表示されていた青色の線画を消去する。次に、HMD1、及びPC220の各処理部(123、及び221)は、サーバー200から受信した受信信号に基づいて、各々、LCD63、表示部225に送信が再開された映像データと方位情報に基づく画像を表示する。 (Step S <b> 72) Each processing unit (123 and 221) of the HMD 1 and the PC 220 deletes the blue line drawing displayed on the LCD 63 and the display unit 225 based on the received signal received from the server 200. Next, the respective processing units (123 and 221) of the HMD 1 and the PC 220 are based on the video data and the orientation information whose transmission is resumed to the LCD 63 and the display unit 225, respectively, based on the received signal received from the server 200. Display an image.
次に、HMD1のユーザーの指示により、HMD1自ら撮影した映像に対して自らが線画を重畳する手順を説明する。
(ステップS73)HMD1のユーザーは、線画を描写して送信するために、タッチスイッチ34上の所定の位置で指を動かす。この場合、線画を送信するため、HMD1の処理部123は、カメラ64が撮像した映像を、低解像度から中解像度に切り替える。
Next, a procedure for superimposing a line drawing on the video captured by the HMD 1 itself according to an instruction from the user of the HMD 1 will be described.
(Step S73) The user of the HMD 1 moves his / her finger at a predetermined position on the touch switch 34 in order to draw and transmit a line drawing. In this case, in order to transmit the line drawing, the processing unit 123 of the HMD 1 switches the video captured by the camera 64 from low resolution to medium resolution.
(ステップS74)図19に移って、HMD1の処理部123は、カメラ64が撮像した動画を中解像度の映像に変換し、変換した中解像度の映像データを、PC220、及びサーバー200に送信する。 (Step S <b> 74) Moving to FIG. 19, the processing unit 123 of the HMD 1 converts the moving image captured by the camera 64 into a medium-resolution video, and transmits the converted medium-resolution video data to the PC 220 and the server 200.
(ステップS75)HMD1のユーザーは、送信中の映像を一時停止するために、タッチスイッチ34の所定の位置をタッチする。次に、HMD1のユーザーは、一時停止させた静止画上に線画を描写するために、タッチスイッチ34上で指を動かす。
次に、HMD1の処理部123は、タッチスイッチ34がタッチされたことに基づいて、送信中の映像を一時停止する指示を、PC220、及びサーバー200に送信する。
次に、処理部123は、タッチスイッチ34上の指の動きに応じて、順次、カーソルの位置を示す情報を、PC220、及びサーバー200に送信する。
(Step S75) The user of the HMD 1 touches a predetermined position of the touch switch 34 in order to pause the video being transmitted. Next, the user of the HMD 1 moves his / her finger on the touch switch 34 in order to draw a line drawing on the paused still image.
Next, based on the touch switch 34 being touched, the processing unit 123 of the HMD 1 transmits an instruction to pause the video being transmitted to the PC 220 and the server 200.
Next, the processing unit 123 sequentially transmits information indicating the position of the cursor to the PC 220 and the server 200 according to the movement of the finger on the touch switch 34.
(ステップS76)HMD1の処理部123は、タッチスイッチ34上の指の動きに応じて、静止画上に青色の線画を重畳して表示する。
次に、PC220の処理部221は、HMD1から受信した受信信号に基づいて、映像を一時停止する。次に、処理部221は、HMD1から受信した受信信号に基づいて、一時停止した静止画に青色の線画を重畳して、表示部225に表示する。
次に、サーバー200の処理部201は、HMD1から受信した受信信号に基づいて、映像データを一時停止し、停止したときの静止画を記憶部202に記録する。次に、処理部201は、HMD1から受信した受信信号に基づいて、青色の線画を、記憶部202に記録する。
(Step S76) The processing unit 123 of the HMD 1 superimposes and displays a blue line image on the still image according to the movement of the finger on the touch switch 34.
Next, the processing unit 221 of the PC 220 temporarily stops the video based on the received signal received from the HMD 1. Next, based on the received signal received from the HMD 1, the processing unit 221 superimposes a blue line drawing on the paused still image and displays it on the display unit 225.
Next, the processing unit 201 of the server 200 temporarily stops the video data based on the received signal received from the HMD 1 and records the still image when the video data is stopped in the storage unit 202. Next, the processing unit 201 records a blue line drawing in the storage unit 202 based on the reception signal received from the HMD 1.
次に、ステップS1で通話を開始したHMD1により、全ての通話相手との通話を終了する処理について説明する。
(ステップS77)HMD1のユーザーは、全ての端末との通話を完了するため、タッチスイッチ34の所定の位置をタッチする。次に、HMD1の処理部123は、タッチスイッチ34から入力された制御信号に基づいて、通話を完了する指示を、ステップS77で通話に参加しているPC220、及びサーバー200に送信する。次に、処理部123は、PC220、及びサーバー200との通話を終了する。
Next, a process for ending calls with all call partners using the HMD 1 that started the call in step S1 will be described.
(Step S77) The user of the HMD 1 touches a predetermined position of the touch switch 34 in order to complete a call with all terminals. Next, based on the control signal input from the touch switch 34, the processing unit 123 of the HMD 1 transmits an instruction to complete the call to the PC 220 and the server 200 participating in the call in step S77. Next, the processing unit 123 ends the call with the PC 220 and the server 200.
(ステップS78)PC220の処理部221は、HMD1から受信した受信信号に基づいて、HMD1からの通話処理を終了する。
次に、サーバー200の処理部201は、HMD1から受信した受信信号に基づいて、HMD1及びPC220との接続が終了したことを示す情報を、記憶部202に記録する。
(Step S78) The processing unit 221 of the PC 220 ends the call processing from the HMD 1 based on the received signal received from the HMD 1.
Next, the processing unit 201 of the server 200 records information indicating that the connection between the HMD 1 and the PC 220 is completed in the storage unit 202 based on the received signal received from the HMD 1.
なお、図9〜図19に示した例において、各端末からの画像データの送信、線画の描写等の順序は、一例であり、各端末のユーザーの指示に応じた順序で行われる。 In the examples shown in FIGS. 9 to 19, the order of transmission of image data from each terminal, the drawing of line drawings, and the like is an example, and is performed in the order according to the instruction of the user of each terminal.
以上のように、複数の端末間で動画に対して画面に基づくコミュニケーションを行いたい場合、各端末の各処理部は、映像を一時停止させ静止画としてから、その画像に対して線画などを重畳する。この結果、本実施形態によれば、たとえ撮影者が撮影する方向が変わったとしても、正確に画面の画像と線画とを重ねることが可能となる。
また、本実施形態によれば、最初に静止画を要求した端末がキャプチャーした画像が全端末に配信されるので、その後に線画を重畳しても線画と静止画とが各端末でズレが発生することがないので、コミュニケーションでのミスが削減できる。
As described above, when you want to perform screen-based communication for video between multiple terminals, each processing unit of each terminal pauses the video to create a still image, and then superimposes a line drawing or the like on that image. To do. As a result, according to the present embodiment, it is possible to accurately superimpose the screen image and the line drawing even if the photographer changes the shooting direction.
In addition, according to the present embodiment, since the image captured by the terminal that first requested the still image is distributed to all the terminals, the line image and the still image are shifted from each other even if the line image is superimposed thereafter. Since there is nothing to do, communication errors can be reduced.
また、本実施形態では、各端末の各処理部は、映像を一時停止させ静止画としてから、その画像に対して線画などを重畳することで、例えば、映像中を移動している物体や人についても静止した画像を用いることができる。このため、説明したい画像中の対象物と線画とのズレを防ぐ効果もある。 Further, in this embodiment, each processing unit of each terminal pauses the video to make a still image, and then superimposes a line drawing or the like on the image, for example, an object or person moving in the video Still images can also be used. For this reason, there is also an effect of preventing displacement between the object in the image to be described and the line drawing.
また、本実施形態では、通信環境の厳しい場合にそなえて、画面の解像度を落としてもフレームレートの高い画像を送る第1のモードと、画像の解像度は高くてもフレームレートの低い第2のモードを用意する。そして、本実施形態によれば、線画を重畳する場合、第二のモードで画像を送るようにすることで、観察者にとっても見やすい画像を送信できて、状況をより正確に伝えることが可能となっている。 In the present embodiment, the first mode for sending an image with a high frame rate even when the screen resolution is reduced, and the second mode with a low frame rate even if the image resolution is high, in case the communication environment is severe. Prepare a mode. And according to this embodiment, when superimposing line drawings, by sending an image in the second mode, it is possible to transmit an image that is easy to see for the observer, and to convey the situation more accurately. It has become.
なお、本実施形態では、アバター記憶部307に予め複数のアバターを示す情報が記憶されている例を説明したが、これに限られない。例えば、HMD1の処理部123は、HMD1と通話を行っているユーザーのアバターを示す情報を、通信インタフェース(131、138)を介して受信するようにしてもよい。 In the present embodiment, an example in which information indicating a plurality of avatars is stored in advance in the avatar storage unit 307 is described, but the present invention is not limited thereto. For example, the processing unit 123 of the HMD 1 may receive information indicating the avatar of the user who is calling with the HMD 1 via the communication interface (131, 138).
なお、本実施形態では、カーソルの色と、線画の色とを同系色にする例を説明したが、さらにアバターの色も同系色にするようにしてもよい。例えば、HMD500のLCD563に表示されるHDM1によるカーソルが水色、線画が青色の場合、HMD1のアバターの服の色、及び髪の毛の色を、青色系にするようにしてもよい。これにより、どのユーザーが、カーソルの操作や線画を描写しているのかを、さらに視覚的に認識しやすくなる。 In the present embodiment, an example in which the color of the cursor and the color of the line drawing are made similar to each other has been described. However, the color of the avatar may also be made similar. For example, when the cursor by HDM1 displayed on the LCD 563 of the HMD 500 is light blue and the line drawing is blue, the clothes color of the avatar of HMD1 and the color of the hair may be blue. This makes it easier to visually recognize which user is drawing a cursor operation or line drawing.
なお、本実施形態では、ユーザー毎に、カーソルの表示色、線画の表示色を変える例を説明したが、これに限られない。例えば、ユーザー毎にカーソルの形状、線画に用いる線の種類(実線、点線、破線)、及び線画に用いる線の太さを変えるようにしてもよい。 In this embodiment, the example in which the cursor display color and the line drawing display color are changed for each user has been described. However, the present invention is not limited to this. For example, the shape of the cursor, the type of line used for the line drawing (solid line, dotted line, broken line), and the thickness of the line used for the line drawing may be changed for each user.
なお、本実施形態では、HMD1、及びHMD500のユーザーが、タッチスイッチ(34、534)を操作して、各種の操作を行う例を示したが、これに限られない。例えば、リモコン140を介して操作を行うようにしてもよい。あるいは、切り替えや選択等の操作においては、各端末(HMD1、及びHMD500)の処理部(122、及び522)は、ユーザーの瞬きの回数を検出し、検出した瞬きの回数に基づいて、例えば、カーソル表示、線画の描写等を切り替えるように制御してもよい。 In the present embodiment, an example in which the users of the HMD 1 and the HMD 500 perform various operations by operating the touch switches (34, 534) has been described, but the present invention is not limited thereto. For example, the operation may be performed via the remote controller 140. Alternatively, in operations such as switching and selection, the processing units (122 and 522) of each terminal (HMD1 and HMD500) detect the number of blinks of the user, and based on the detected number of blinks, for example, You may control so that a cursor display, the drawing of a line drawing, etc. may be switched.
なお、本実施形態では、各端末が画像に線画を描写する例を示したが、これに限られない。例えば、PC210の入力部214のキーボードから入力されたコメントを、受信している画像に重畳するようにしてもよい。この場合においても、コメントは、各端末、及びサーバーにおいて、受信している画像と異なるレイヤーに表示、及び記憶される。このため、コメントのみの表示、削除を行うことができる。 In this embodiment, an example in which each terminal draws a line drawing on an image has been shown, but the present invention is not limited to this. For example, a comment input from the keyboard of the input unit 214 of the PC 210 may be superimposed on the received image. Even in this case, the comment is displayed and stored in a different layer from the received image in each terminal and server. For this reason, only the comment can be displayed and deleted.
なお、本実施形態では、映像(動画)を、初期状態では、低解像度で送信し、ユーザーからの要求に応じて、中解像度等に切り替える例を示したが、これに限られない。解像度の種類は、さらに多くてもよい。また、ユーザーがタッチスイッチ34を用いて、解像度及びフレームレートを設定するようにしてもよい。具体的には、低解像度における解像度及び第1フレームレートの第1設定、低解像度における解像度及び第2フレームレートの第2設定、中解像度における解像度及び第3フレームレートの第3設定、等である。
ただし、ユーザーが解像度を設定した場合、他の端末のユーザーの端末においても同じ解像度で、通話のやりとりを行う必要があるため、通話開始時等に、用いる解像度を示す情報を送信しておくようにしてもよい。
また、送信する画像は、利用する用途に応じて、白黒であっても、カラーであってもよく、カラーの場合、用途に応じて8ビットカラー、16ビットカラー等であってもよい。
In the present embodiment, an example in which video (moving image) is transmitted at low resolution in the initial state and switched to medium resolution or the like in response to a request from the user has been described. However, the present invention is not limited to this. There may be more types of resolution. Further, the user may set the resolution and the frame rate by using the touch switch 34. Specifically, the first setting of the resolution and the first frame rate at the low resolution, the second setting of the resolution and the second frame rate at the low resolution, the third setting of the resolution and the third frame rate at the medium resolution, and the like. .
However, when the user sets the resolution, it is necessary to exchange the call at the same resolution on the user terminal of the other terminal, so that information indicating the resolution to be used is transmitted at the start of the call. It may be.
The image to be transmitted may be monochrome or color depending on the application to be used. In the case of color, the image may be 8-bit color, 16-bit color, or the like.
なお、本実施形態の図9〜図19の例では、HMD1のユーザーを含めて4者で通話を行い、全てのユーザー間で同じ画像を共有する例を説明したが、これに限られない。例えば、画像をリクエストされた端末は、リクエストした端末のみに画像情報を、送信するようにしてもよい。または、送信元で、送信先を限定したり、グループ化してあるメンバーのみに画像情報を、送信するようにしてもよい。
また、画像に限らず、音声信号についても、リクエストされた端末は、リクエストした端末のみに音声信号を送信するようにしてもよい。または、送信元で、送信先を限定したり、グループ化してあるメンバーのみに、音声信号を送信するようにしてもよい。
In the example of FIGS. 9 to 19 of the present embodiment, an example in which a call is made by four parties including the user of the HMD 1 and the same image is shared among all users has been described. However, the present invention is not limited to this. For example, the terminal that requested the image may transmit the image information only to the requested terminal. Alternatively, the transmission source may limit the transmission destination or transmit the image information only to grouped members.
Further, not only for images but also for audio signals, the requested terminal may transmit the audio signal only to the requested terminal. Alternatively, the audio signal may be transmitted only to members who are limited by the transmission source or grouped.
また、ユーザーが使用している端末の表示解像度、カメラの撮影解像度が異なっている場合もある。この場合、通話開始時に、各端末の表示解像度、カメラの撮影解像度を、他の端末、およびサーバー200に送信する。そして、これらの情報に基づいて、例えば、サーバー200が、通話に使用する共通の解像度を設定して、設定した共通の解像度を、各端末に送信するようにしてもよい。共通の解像度を設置した後に、さらに別の端末が通話に参加した場合においても、後から通話に参加した端末からの情報に基づいて、例えば、サーバー200が、共通の解像度を再設定して、再設定した共通の解像度を、各端末に送信するようにしてもよい。 In addition, the display resolution of the terminal used by the user and the shooting resolution of the camera may be different. In this case, the display resolution of each terminal and the shooting resolution of the camera are transmitted to the other terminals and the server 200 at the start of the call. Based on these pieces of information, for example, the server 200 may set a common resolution used for a call and transmit the set common resolution to each terminal. Even when another terminal joins the call after setting the common resolution, for example, the server 200 resets the common resolution based on information from the terminal that joined the call later, The reset common resolution may be transmitted to each terminal.
なお、複数の通話相手と通話を行う場合、1人のユーザーが使用している端末(HMD)のLCDまたは表示部が白黒表示であり、カメラ64が白黒撮像しかできない場合、他の端末の処理部は、この端末に合わせて、白黒の画像を送信するようにしてもよい。この場合、送信するデータを軽減できる効果もある。あるいは、カラーで撮像した画像を送信し、端末側で、白黒に変換して表示するようにしてもよい。 When a call is made with a plurality of call partners, when the LCD or display unit of a terminal (HMD) used by one user is in monochrome display and the camera 64 can only perform monochrome imaging, the processing of other terminals The unit may transmit a monochrome image in accordance with the terminal. In this case, there is an effect that data to be transmitted can be reduced. Alternatively, an image captured in color may be transmitted and converted into black and white on the terminal side and displayed.
なお、本実施形態では、PC210のユーザーが、入力部214を操作して、HMD1から受信した静止画を表示部215で拡大表示(図14、ステップS40)する例を説明したが、画像の拡大は、HMD1側で行うようにしてもよい。例えば、HMD1が備えるカメラ64にズーム機能を有する場合、PC210のユーザーは、拡大表示の要求を、HMD1に送信する。そして、HMD1の処理部123は、受信した拡大要求に応じて、ズーム機能を用いて撮像した画像を、通話中の端末に送信するようにしてもよい。 In the present embodiment, the example in which the user of the PC 210 operates the input unit 214 to enlarge and display the still image received from the HMD 1 on the display unit 215 (FIG. 14, step S40) has been described. May be performed on the HMD 1 side. For example, when the camera 64 included in the HMD 1 has a zoom function, the user of the PC 210 transmits an enlargement display request to the HMD 1. Then, in response to the received enlargement request, the processing unit 123 of the HMD 1 may transmit an image captured using the zoom function to the terminal that is in a call.
なお、本実施形態では、画像を送信する例を説明したが、動画には音声信号が含まれているようにしてもよく、環境によって周囲雑音が多い場合、画像のみを送信するようにしてもよい。
また、画像の送信時、処理部123は、例えば、撮影日時、端末の機種情報、撮影条件(シャッタースピード、感度、絞り値、レンズの焦点距離)等の情報を付加、もしくは埋め込んで送信するようにしてもよい。
また、送信する画像のフォーマットは、予め端末が再生可能なフォーマットをサーバー200に登録しておき、サーバー200が登録されている情報に基づいて決定するようにしてもよい。この結果、端末側で、フォーマット変換を行う必要がないので、通話を行っているユーザー同士が、ほぼ同時刻に同じ画像を観測することができるので、コミュニケーションのミスを軽減できる効果がある。
In this embodiment, an example in which an image is transmitted has been described. However, an audio signal may be included in a moving image, or only an image may be transmitted when there is a lot of ambient noise depending on the environment. Good.
Further, at the time of image transmission, the processing unit 123 adds or embeds information such as shooting date / time, terminal model information, shooting conditions (shutter speed, sensitivity, aperture value, lens focal length), etc., for transmission. It may be.
Further, the format of the image to be transmitted may be determined based on information registered in the server 200 in advance by registering a format reproducible by the terminal in the server 200. As a result, since it is not necessary to perform format conversion on the terminal side, users who are making a call can observe the same image at almost the same time, which has the effect of reducing communication errors.
なお、処理部123は、送信する画像を、通話に参加していない人に搾取されてしまうことを防ぐため、例えば、公知の技術を用いて、暗号化して送信するようにしてもよい。また、処理部123は、送信する画像に、公知の技術を用いて、例えば「すかし」を埋めこんで送信するようにしてもよい。 Note that the processing unit 123 may encrypt and transmit the image to be transmitted using, for example, a known technique in order to prevent the image to be transmitted from being exploited by a person who does not participate in the call. Further, the processing unit 123 may transmit the image to be transmitted by embedding “watermark”, for example, using a known technique.
なお、本実施形態では、各端末のユーザーを示す情報として、アバターを用いる例を示したが、例えば、ユーザーの顔写真であってもよい。この場合、例えば、各端末のカメラ(64、564、216、及び226)が撮像した顔写真を、予めサーバー200の記憶部202に記録しておくようにしてもよい。そして、通話を行うとき、通話に参加しているユーザーの顔写真を、サーバー200が、各端末に送信するようにしてもよい。または、各端末から、他の端末に顔写真を送信するようにしてもよい。PC210のカメラ216のように、通話中、顔全体を撮像できる場合、顔写真ではなく、ユーザーの顔を撮像した映像を、他の端末に送信するようにしてもよい。この場合、送信される顔の映像は、ユーザーを特定できる程度の解像度であればよい。 In the present embodiment, an example in which an avatar is used as information indicating the user of each terminal has been described. However, for example, a face photograph of the user may be used. In this case, for example, face photographs taken by the cameras (64, 564, 216, and 226) of each terminal may be recorded in the storage unit 202 of the server 200 in advance. Then, when making a call, the server 200 may transmit the face photograph of the user participating in the call to each terminal. Alternatively, a face photograph may be transmitted from each terminal to another terminal. When the entire face can be imaged during a call like the camera 216 of the PC 210, an image obtained by capturing the user's face instead of a face photograph may be transmitted to another terminal. In this case, the transmitted face image may have a resolution that can identify the user.
なお、HMD1のLCD63は、裸眼による3次元表示が可能な表示部であってもよい。
また、カメラ64は、3次元撮像が可能なものを備えるようにしてもよい。カメラ64が、3次元撮影が可能な場合、他の端末に送信する画像情報は、他の端末が全て3次元表示可能な表示部を備えていることが予め分かっていれば、3次元の画像情報を、送信するようにしてもよい。
Note that the LCD 63 of the HMD 1 may be a display unit capable of three-dimensional display with the naked eye.
Further, the camera 64 may be provided with a camera capable of three-dimensional imaging. If the camera 64 is capable of three-dimensional imaging, the image information transmitted to the other terminal is a three-dimensional image if it is known in advance that the other terminal includes a display unit that can display three-dimensionally. Information may be transmitted.
なお、本実施形態では、ディスプレイ本体20をヘッドバンド40に装着して使用する例を説明したが、これに限られない。ユーザーは、ディスプレイ本体20をヘッドバンド40に装着せずに、単体で使用してもよい。 In this embodiment, the example in which the display main body 20 is mounted on the headband 40 has been described, but the present invention is not limited to this. The user may use the display body 20 alone without attaching it to the headband 40.
なお、本実施形態では、情報表示装置が、入出力検出部(入力部)と、画像合成部部とを備える例を説明したが、これに限られない。例えば、各部を備える装置を有するシステムであってもよい。 In the present embodiment, the information display device includes an input / output detection unit (input unit) and an image composition unit, but the present invention is not limited to this. For example, a system having an apparatus including each unit may be used.
なお、本発明の技術範囲は上記の実施形態に限定されるものではない。上記の実施形態で説明した要件のうち少なくとも1つの要件は、省略される場合がある。上記の実施形態で説明した各要件は、適宜、組み合わせることができる。 The technical scope of the present invention is not limited to the above embodiment. At least one of the requirements described in the above embodiments may be omitted. The requirements described in the above embodiments can be combined as appropriate.
なお、上述のHMD1(含む500)は、内部にコンピュータシステム(例えば、処理部123、523)を有している。そして、各機能部の動作の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータシステムが読み出して実行することによって、上記処理が行われる。ここでいうコンピュータシステムとは、CPU及び各種メモリーやOS、周辺機器等のハードウェアを含むものである。 The above-described HMD 1 (including 500) has a computer system (for example, the processing units 123 and 523) therein. The operation process of each functional unit is stored in a computer-readable recording medium in the form of a program, and the above processing is performed by the computer system reading and executing the program. Here, the computer system includes a CPU, various memories, an OS, and hardware such as peripheral devices.
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバーやクライアントとなるコンピュータシステム内部の揮発性メモリーのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。 Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, it also includes those that hold a program for a certain period of time, such as volatile memory inside a computer system that serves as a server or client in that case. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.
1…ヘッドマウントディスプレイ、20…ディスプレイ本体、34…タッチスイッチ、60…表示部、63…表示パネル(表示部)、64…カメラ、72…撮像素子、123…処理部、130…BT通信回路、131…WiFi通信回路、132…加速度センサー、133…地磁気センサー、137…心拍数センサー、138…3G/LTE通信回路、140…リモコン、301…入力検出部、302…画像切替部、303…送受信部、304…線画生成部、305…カーソル生成部、306…アバター選択部、307…アバター記憶部、308…画像合成部 DESCRIPTION OF SYMBOLS 1 ... Head mounted display, 20 ... Display main body, 34 ... Touch switch, 60 ... Display part, 63 ... Display panel (display part), 64 ... Camera, 72 ... Image sensor, 123 ... Processing part, 130 ... BT communication circuit, DESCRIPTION OF SYMBOLS 131 ... WiFi communication circuit, 132 ... Acceleration sensor, 133 ... Geomagnetic sensor, 137 ... Heart rate sensor, 138 ... 3G / LTE communication circuit, 140 ... Remote control, 301 ... Input detection part, 302 ... Image switching part, 303 ... Transmission / reception part , 304 ... Line drawing generation unit, 305 ... Cursor generation unit, 306 ... Avatar selection unit, 307 ... Avatar storage unit, 308 ... Image composition unit
Claims (7)
ユーザーの操作を検出する入力部と、
被写体を撮像する撮像部と、
前記撮像部で得た画像を第1解像度又は前記第1解像度より高解像度の第2解像度に変換する変換部と、
前記入力部への操作により前記表示部に前記撮像部で得た画像を重畳表示させる場合、前記変換部で変換された前記第2解像度の画像を前記表示部に表示させる画像合成部と、を備え、
前記変換部は、前記撮像部で得た画像を前記第1解像度に変換した後に、前記画像を前記第2解像度に変換する情報表示装置。 A display unit for displaying an image;
An input unit for detecting a user operation;
An imaging unit for imaging a subject;
A conversion unit for converting an image obtained by the imaging unit into a first resolution or a second resolution higher than the first resolution;
An image composition unit for displaying the second resolution image converted by the conversion unit on the display unit when the image obtained by the imaging unit is superimposed on the display unit by an operation to the input unit; Prepared ,
The information conversion device that converts the image to the second resolution after the conversion unit converts the image obtained by the imaging unit to the first resolution .
を備える請求項1に記載の情報表示装置。 The said image synthetic | combination part is provided with the following. When displaying the image acquired in the said imaging part on the said display part by superimposing by the operation to the said input part, the image currently displayed on the said display part is suspended. Information display device.
を備える請求項2に記載の情報表示装置。 The information display device according to claim 2, further comprising: a transmission / reception unit that transmits the temporarily stopped image displayed on the display unit to another terminal.
前記送受信部により他の端末へ送信する画像の解像度、フレームレートのいずれか1つを切り替えて、切り替え後の画像を前記他の端末に送信する
請求項3に記載の情報表示装置。 The image composition unit
The information display device according to claim 3, wherein one of a resolution and a frame rate of an image transmitted to the other terminal is switched by the transmission / reception unit, and the image after the switching is transmitted to the other terminal.
前記入力部への操作により静止画像を前記表示部に重畳表示させる場合、前記表示部に表示されている画像を一時停止させ、前記入力部への操作により動画像を前記表示部に重畳表示させる場合、前記表示部に表示されている画像を一時停止させない
請求項1から請求項4のいずれか1項に記載の情報表示装置。 The image composition unit
When a still image is superimposed on the display unit by an operation on the input unit, the image displayed on the display unit is temporarily stopped, and a moving image is superimposed on the display unit by an operation on the input unit. 5. The information display device according to claim 1, wherein the image displayed on the display unit is not temporarily stopped.
前記入力部への操作により軌跡が残る線画を前記表示部に重畳表示させる場合、前記表示部に表示されている画像を一時停止させ、前記入力部への操作により軌跡が残らないカーソルを前記表示部に重畳表示させる場合、前記表示部に表示されている画像を一時停止させない
請求項1から請求項5のいずれか一項に記載の情報表示装置。 The image composition unit
When a line drawing in which a locus remains due to an operation on the input unit is to be superimposed on the display unit, the image displayed on the display unit is paused, and a cursor that does not leave a locus due to an operation on the input unit is displayed. The information display device according to any one of claims 1 to 5, wherein the image displayed on the display unit is not temporarily stopped when the display is superimposed on the unit.
請求項6に記載の情報表示装置。 The information display device according to claim 6, wherein the image composition unit sets a color for displaying a line drawing that leaves a trace and a color for displaying a cursor that does not leave a trace to a similar color.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012039147A JP6074894B2 (en) | 2012-02-24 | 2012-02-24 | Information display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012039147A JP6074894B2 (en) | 2012-02-24 | 2012-02-24 | Information display device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013175048A JP2013175048A (en) | 2013-09-05 |
JP6074894B2 true JP6074894B2 (en) | 2017-02-08 |
Family
ID=49267895
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012039147A Active JP6074894B2 (en) | 2012-02-24 | 2012-02-24 | Information display device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6074894B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6611536B2 (en) * | 2015-09-28 | 2019-11-27 | キヤノン株式会社 | Remote support system, information processing apparatus, image processing apparatus, control method therefor, and program |
WO2017138153A1 (en) * | 2016-02-12 | 2017-08-17 | 富士通株式会社 | Terminal device, management method, control method, management program, and control program |
JP6419278B1 (en) | 2017-09-19 | 2018-11-07 | キヤノン株式会社 | Control device, control method, and program |
WO2019082366A1 (en) * | 2017-10-26 | 2019-05-02 | サン電子株式会社 | Conference system |
JP7224018B2 (en) * | 2018-12-20 | 2023-02-17 | 株式会社ガゾウ | Head-mounted information device and program |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002507027A (en) * | 1998-03-13 | 2002-03-05 | シーメンス コーポレイト リサーチ インコーポレイテツド | Apparatus and method for creating collaborative dynamic video comment |
JP4933164B2 (en) * | 2005-07-01 | 2012-05-16 | キヤノン株式会社 | Information processing apparatus, information processing method, program, and storage medium |
JP4349371B2 (en) * | 2006-01-23 | 2009-10-21 | 株式会社ニコン | Information processing apparatus and information processing system |
JP4801009B2 (en) * | 2007-06-18 | 2011-10-26 | 株式会社コナミデジタルエンタテインメント | Image processing apparatus, image processing method, and program |
JP2009239646A (en) * | 2008-03-27 | 2009-10-15 | Fuji Xerox Co Ltd | Television conference system, television conference apparatus and image processing program |
JP2011210051A (en) * | 2010-03-30 | 2011-10-20 | Sharp Corp | Network system, communication method, and communication terminal |
-
2012
- 2012-02-24 JP JP2012039147A patent/JP6074894B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013175048A (en) | 2013-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2013175929A (en) | Information output device and information output method | |
JP7379907B2 (en) | Information processing device, information processing program, information processing system, information processing method | |
US9426379B2 (en) | Photographing unit, cooperative photographing method, and recording medium having recorded program | |
RU2670784C9 (en) | Orientation and visualization of virtual object | |
US20160140768A1 (en) | Information processing apparatus and recording medium | |
JP7164831B2 (en) | Communication management system, communication system, communication method, and program | |
US20090219224A1 (en) | Head tracking for enhanced 3d experience using face detection | |
JP6074894B2 (en) | Information display device | |
JP2014021707A (en) | Information input/output device and information input/output method | |
KR20190013308A (en) | Mobile terminal and method for controlling the same | |
KR20190008610A (en) | Mobile terminal and Control Method for the Same | |
JP2010524295A (en) | First portable communication device | |
JP2014011624A (en) | Information input/output device and head-mounted display device | |
JP6096654B2 (en) | Image recording method, electronic device, and computer program | |
JP2020014114A (en) | Display control device, control method of display control device, program, and storage medium | |
JP2024127983A (en) | Information processing system, communication system, image sharing method, and program | |
KR20160020860A (en) | Mobile terminal and method for controlling the same | |
JP2013174730A (en) | Information display device | |
US12088781B2 (en) | Hyper-connected and synchronized AR glasses | |
JP2023140922A (en) | Display terminal, information processing system, communication system, display method, information processing method, communication method, and program | |
JP4390887B2 (en) | Imaging equipment | |
JP2013174729A (en) | Information display device, and information display method | |
JP7501559B2 (en) | Display terminal, display method, communication system, communication method, and program | |
US20240323537A1 (en) | Display terminal, communication system, display method, and recording medium | |
US20240319943A1 (en) | Display terminal, communication system, and display method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150216 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160121 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160126 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160328 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160726 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160926 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161213 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161226 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6074894 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |