JP2013186410A - Portable display device - Google Patents

Portable display device Download PDF

Info

Publication number
JP2013186410A
JP2013186410A JP2012053327A JP2012053327A JP2013186410A JP 2013186410 A JP2013186410 A JP 2013186410A JP 2012053327 A JP2012053327 A JP 2012053327A JP 2012053327 A JP2012053327 A JP 2012053327A JP 2013186410 A JP2013186410 A JP 2013186410A
Authority
JP
Japan
Prior art keywords
housing
user
display
unit
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012053327A
Other languages
Japanese (ja)
Inventor
Koya Iwatake
皓也 岩竹
Mitsuo Okumura
充男 奥村
Kyo Yamamoto
京 山本
Koki Futatsuyama
幸樹 二ツ山
Yosuke Tomita
洋祐 富田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2012053327A priority Critical patent/JP2013186410A/en
Publication of JP2013186410A publication Critical patent/JP2013186410A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a portable display device with improved operability for a user.SOLUTION: A portable display device that includes a display 11 provided in a housing 20 and for displaying an image on the basis of operation by a user includes: a driving mechanism 23 that changes a position of the display 11 in a housing 10 (a relative position of the housing 20 with respect to the housing 10); and a control unit that controls the driving mechanism 23. The control unit is configured to estimate a visible region by the user in the housing 10 on the basis of a detection value and the like of various sensors and output to the driving mechanism 23 a control command for changing the position of the display 11 to a specific position included in the visible region (a viewing position of the user). Therefore, irrespective of how the user moves the housing 10, the image on the display 11 is always displayed in the visible region by the user.

Description

本発明は、ユーザの操作に基づく画像を表示する可搬型表示装置に関する。   The present invention relates to a portable display device that displays an image based on a user's operation.

従来、ユーザのキーまたはスイッチ操作に基づくゲーム画像を表示する表示部が、横長形状の筐体の主面の中央に配置され、ユーザがキー操作を行うための十字キーや押しボタンスイッチ、操作スイッチが、筐体における表示部の両隣のスペースや筐体の上面側に設けられた携帯ゲーム機が知られている(例えば、特許文献1参照)。また、この種の携帯ゲームでは、筐体が二つ折り可能に構成され、筐体を開いた状態における上側主面に表示部が配置され、下側主面に各種キー・スイッチ類(タッチパネルも含む)が設けられた構成も知られている。   Conventionally, a display unit that displays a game image based on a user's key or switch operation is arranged at the center of the main surface of a horizontally long casing, and a cross key, a push button switch, and an operation switch for the user to perform key operations However, there is known a portable game machine provided in the space on both sides of the display unit in the housing or on the upper surface side of the housing (see, for example, Patent Document 1). Also, in this type of portable game, the case is configured to be foldable, the display unit is disposed on the upper main surface in a state where the case is opened, and various keys and switches (including a touch panel) are provided on the lower main surface. A configuration provided with a) is also known.

さらに、例えばユーザの体脂肪量を測定する体脂肪計において、携帯ゲーム機のように可搬型に構成された体脂肪計が知られている。この種の体脂肪計では、例えば体脂肪量を表示する表示部が、横長形状の筐体の主面の中央やや上方に配置され、ユーザが自身の指を接触させる(操作を行うための)電極が、筐体の上面側および下面側にそれぞれ設けられた構成や(例えば、特許文献2参照)、二つ折り可能な筐体を開いた状態における上側主面に表示部が配置され、下側主面に電極が設けられた構成(例えば、特許文献3参照)が知られている。なお、この種の体脂肪計は、ユーザの左右の指が一対の電極にそれぞれ触れている状態で電極から検出された生体インピーダンスに基づいて体脂肪量を推定するものである。   Furthermore, for example, in a body fat scale for measuring the body fat mass of a user, a body fat scale configured to be portable like a portable game machine is known. In this type of body fat scale, for example, a display unit that displays body fat mass is disposed slightly above the center of the main surface of the horizontally long casing, and the user touches his / her finger (for operation). A structure in which the electrodes are provided on the upper surface side and the lower surface side of the housing (see, for example, Patent Document 2), the display unit is disposed on the upper main surface in a state where the housing that can be folded in half is opened, and the lower side A configuration in which an electrode is provided on the main surface (for example, see Patent Document 3) is known. This type of body fat meter estimates the amount of body fat based on the bioimpedance detected from the electrodes while the left and right fingers of the user are touching the pair of electrodes.

特開2007−103380号公報JP 2007-103380 A 特開2000−237158号公報JP 2000-237158 A 特開2001−238861号公報Japanese Patent Laid-Open No. 2001-238861

これらの携帯ゲーム機および可搬型の体脂肪計は、筐体が二つ折り可能な構成であっても、ユーザの操作に基づく画像を表示する表示部の位置がユーザの操作前に予め決められてしまうため、例えばユーザがキー・スイッチ類や電極などを操作しやすいように筐体を動かすと、ユーザの視認位置から表示画像が離れてしまう可能性がある。   Even if these portable game machines and portable body fat scales have a structure that can be folded in two, the position of a display unit that displays an image based on the user's operation is determined in advance before the user's operation. Therefore, for example, if the casing is moved so that the user can easily operate keys, switches, electrodes, and the like, the display image may be separated from the user's viewing position.

このため、ユーザにとっては、操作時に筐体を動かすことができる範囲が、自身の視認可能な領域に表示画像が含まれる範囲内に限定されてしまい、必ずしも使い勝手がよくない場合があるという問題があった。   For this reason, there is a problem that the range in which the user can move the housing during the operation is limited to a range in which the display image is included in the area where the user can visually recognize, which may not always be easy to use. there were.

本発明は、上記問題点を解決するために、ユーザにとって使い勝手のより良い可搬型表示装置を提供することを目的とする。   In order to solve the above-described problems, an object of the present invention is to provide a portable display device that is user-friendly.

上記目的を達成するためになされた発明である請求項1に記載の可搬型表示装置は、筐体に設けられてユーザの操作に基づく画像を表示する表示部と、筐体における表示部の位置を予め設定された視認位置に変更させる駆動手段と、筐体におけるユーザの視認可能な視認可能領域を推定する視認領域推定手段と、視認推定手段にて推定した視認可能領域に含まれる特定位置を上記視認位置として設定する視認位置設定手段とを備える。   The portable display device according to claim 1, which is an invention made to achieve the above object, includes a display unit that is provided in the housing and displays an image based on a user operation, and a position of the display unit in the housing. Driving means for changing the visual recognition position to a preset visual recognition position, visual recognition area estimation means for estimating the visual recognition area visible to the user in the housing, and a specific position included in the visual recognition area estimated by the visual recognition estimation means Visual position setting means for setting the visual position.

このように構成された可搬型表示装置では、常に筐体におけるユーザの視認可能領域内に画像が表示されるように表示部の位置が駆動制御されることになる。したがって、本発明の可搬型表示装置によれば、ユーザが操作時に筐体を比較的大きく動かしたとしても、ユーザの視認位置から表示画像が離れないことから、操作時に筐体を動かすことができる範囲が拡張されるため、ユーザにとっての使い勝手を向上させることができる。   In the portable display device configured as described above, the position of the display unit is driven and controlled so that an image is always displayed in the user's viewable area in the housing. Therefore, according to the portable display device of the present invention, even if the user moves the housing relatively large during operation, the display image does not move away from the user's viewing position, so that the housing can be moved during operation. Since the range is expanded, usability for the user can be improved.

なお、本発明において、視認領域推定手段による視認可能領域の推定方法はいくつか存在する。
例えば、請求項2に記載のように、視認領域推定手段は、ユーザの操作に従って視認可能領域を推定してもよい。具体的には、ユーザのキーまたはスイッチ操作によって指定された領域を視認可能領域としてもよい(推定してもよい)し、ユーザの接触操作から筐体におけるユーザの左右の手の配置を読み取ることによりユーザの顔の向きを推定し、この顔の向きから視認可能領域をさらに推定してもよい。
In the present invention, there are several methods for estimating the visible region by the visual region estimation means.
For example, as described in claim 2, the visual recognition area estimation means may estimate the visual recognition area according to the user's operation. Specifically, an area designated by the user's key or switch operation may be set as a viewable area (may be estimated), and the arrangement of the left and right hands of the user in the housing is read from the user's contact operation. Thus, the user's face direction may be estimated, and the visible region may be further estimated from the face direction.

あるいは、請求項3に記載のように、筐体の外側における所定方向に向かって画像を撮像する撮像手段と、撮像手段による撮像画像の中からユーザの顔の向きを認識する顔認識手段とを本発明が備える構成のもと、視認領域推定手段は、顔認識手段にて認識した顔の向きに基づいて視認可能領域を推定してもよい。この場合、ユーザの顔の向きを認識できるため、ユーザがキーまたはスイッチ操作によって視認可能領域を指定する必要がなく、しかも視認可能領域をより高精度に推定することができる。   Alternatively, as described in claim 3, an imaging unit that captures an image in a predetermined direction outside the housing, and a face recognition unit that recognizes the orientation of the user's face from an image captured by the imaging unit. Under the configuration of the present invention, the visual recognition area estimation means may estimate the visual recognition area based on the face orientation recognized by the face recognition means. In this case, since the orientation of the user's face can be recognized, it is not necessary for the user to designate the viewable region by operating a key or a switch, and the viewable region can be estimated with higher accuracy.

なお、請求項3に記載の可搬型表示装置において、請求項4に記載のように、撮像手段は、表示部と一体に設けられてもよい。このように構成することで、表示画像を視認しているユーザの顔の(向きの)移動に追従するように表示部の位置を変更させることができる。   In the portable display device according to claim 3, as described in claim 4, the imaging means may be provided integrally with the display unit. With this configuration, the position of the display unit can be changed so as to follow the movement (in the direction) of the face of the user viewing the display image.

さらに、請求項5に記載のように、筐体に設けられてユーザに把持される把持部と、把持部および筐体のうち少なくとも一方の上記特定位置に対する変位を検出する変位検出手段とを本発明が備える構成のもと、視認位置設定手段は、変位検出手段にて検出した変位に基づいて上記視認位置を可変設定してもよい。   Further, according to a fifth aspect of the present invention, there are provided a gripping portion provided on the casing and gripped by the user, and a displacement detection means for detecting a displacement of at least one of the gripping section and the casing with respect to the specific position. Under the configuration of the invention, the visual position setting means may variably set the visual position based on the displacement detected by the displacement detection means.

このような構成によれば、ユーザが筐体(または把持部)を動かしたときの変位(方向、量)と逆向きの変位量の分だけ、表示部の位置を変更させることにより、例えばユーザの顔の向きを撮像できない場合であっても、視認可能領域に含まれる位置(ユーザの視認位置)を好適に設定することができる。   According to such a configuration, by changing the position of the display unit by the amount of displacement opposite to the displacement (direction, amount) when the user moves the housing (or gripping unit), for example, the user Even when the orientation of the face cannot be imaged, the position (viewing position of the user) included in the visually recognizable area can be suitably set.

なお、本発明において、駆動手段による表示部の位置の変更方法はいくつか存在する。
例えば、複数の表示部を本発明が備える構成のもと、駆動手段によって、複数の表示部の中から、視認位置設定手段にて設定された視認位置に画像を表示できる表示部を選択することを、表示部の位置の変更と見做してもよい。
In the present invention, there are several methods for changing the position of the display unit by the driving means.
For example, in a configuration in which the present invention includes a plurality of display units, the driving unit selects, from the plurality of display units, a display unit that can display an image at the viewing position set by the viewing position setting unit. May be regarded as a change in the position of the display unit.

あるいは、一つの表示部を本発明が備える構成のもと、駆動手段によって、視認位置設定手段にて設定された視認位置に表示部の位置を移動させることを、表示部の位置の変更と見做してもよい。   Alternatively, in the configuration in which the present invention includes one display unit, moving the position of the display unit to the viewing position set by the viewing position setting unit by the driving unit is considered as changing the position of the display unit. You may hesitate.

後者の場合、具体的に、請求項5に記載の可搬型表示装置においては、請求項6に記載のように、把持部が設けられた筐体を第1筐体、表示部が設けられた筐体を第2筐体として、第1筐体は、透明または半透明の素材からなり、第2筐体を覆うように配置されており、駆動手段は、第1筐体に対して第2筐体の位置を移動させる移動機構を有し、その移動機構に対して、表示部の位置を視認位置に変更させるための駆動制御を行う構成でもよい。   In the latter case, specifically, in the portable display device according to claim 5, as described in claim 6, the housing provided with the grip portion is provided with the first housing and the display portion. The housing is a second housing, the first housing is made of a transparent or translucent material, and is disposed so as to cover the second housing. A configuration may be adopted in which a moving mechanism for moving the position of the housing is provided, and drive control for changing the position of the display unit to the viewing position is performed on the moving mechanism.

このような構成によれば、複数の表示部を備える必要がなく、しかも表示部が第1筐体によって保護されるため、コストを抑制するとともに装置の高寿命化を実現することができる。   According to such a configuration, it is not necessary to provide a plurality of display units, and the display unit is protected by the first housing, so that the cost can be reduced and the lifetime of the apparatus can be increased.

また、本発明において、筐体の形状についてのバリエーションもいくつか存在する。
例えば、筐体の形状は、携帯ゲーム機のように横長形状であってもよい(この場合、表面と裏面とにそれぞれ一つずつ表示部が設けられることが望ましい)し、直方体や立方体であってもよい。あるいは、筐体の形状は、球状であってもよい。
In the present invention, there are some variations in the shape of the housing.
For example, the shape of the housing may be a horizontally long shape like a portable game machine (in this case, it is desirable that one display portion is provided for each of the front surface and the back surface), and it is a rectangular parallelepiped or a cube. May be. Alternatively, the shape of the housing may be spherical.

後者の場合、具体的に、請求項6に記載の可搬型表示装置においては、請求項7に記載のように、第1筐体の外周面および内周面は、球状に形成されており、第2筐体は、第1筐体の内周面に沿って移動する球面部を有している構成でもよい。   In the latter case, specifically, in the portable display device according to claim 6, as described in claim 7, the outer peripheral surface and the inner peripheral surface of the first housing are formed in a spherical shape, The second housing may have a spherical portion that moves along the inner peripheral surface of the first housing.

このような構成によれば、第1筐体に対する表示部の位置を360度回転させることが可能になり、しかもユーザから見て表示部を遮る部位がほとんどなくなるため、ユーザの操作性と視認性とを向上させることができる。   According to such a configuration, the position of the display unit with respect to the first housing can be rotated 360 degrees, and there are almost no parts that block the display unit when viewed from the user. And can be improved.

また、本発明は、可搬型の表示装置であればよく、例えば携帯ゲーム機やテレビ等に適用されてもよいし、あるいは、可搬型の体脂肪計などの生体インピーダンスを測定する生体測定装置に適用されてもよい。   In addition, the present invention may be any portable display device, and may be applied to, for example, a portable game machine, a television, or the like, or a biometric device that measures bioimpedance such as a portable body fat scale. May be applied.

後者の場合、具体的に、請求項5〜7に記載の可搬型表示装置においては、請求項8に記載のように、把持部に設けられてユーザの脈波または心電を表す生体信号を検出する生体信号検出手段と、生体信号検出手段による検出結果を表示部に表示させる生体表示制御手段とを備える構成でもよい。   In the latter case, specifically, in the portable display device according to claims 5 to 7, as described in claim 8, a biological signal that is provided on the grasping portion and represents a user's pulse wave or electrocardiogram is provided. The structure provided with the biometric signal detection means to detect and the biometric display control means to display the detection result by a biosignal detection means on a display part may be sufficient.

このような構成によれば、ユーザが可般型表示装置を把持した状態で姿勢を変えることにより、ユーザの視認可能領域が表示部の位置から離れた場合であっても、表示部の位置が自動的にユーザの視認位置に変更されるので、例えばユーザが測定前の姿勢から測定時に姿勢を変えても、ユーザが可搬型表示装置を把持し直す必要がなくなり、ユーザにとっての利便性を向上させることができる。   According to such a configuration, even if the user's viewable region is away from the position of the display unit by changing the posture while the user is holding the portable display device, the position of the display unit is Since it is automatically changed to the user's visual recognition position, even if the user changes the posture from the pre-measurement posture at the time of measurement, the user does not need to hold the portable display device again, improving the convenience for the user Can be made.

また、請求項5〜8に記載の可搬型表示装置において、請求項9に記載のように、把持部に設けられてユーザの心電を表す生体信号を検出する生体信号検出手段を備える構成のもと、把持部は、筐体において互いに対向する側面に設けられており、視認領域推定手段は、生体信号検出手段による検出結果に基づいて、筐体におけるユーザの左手および右手による把持位置をそれぞれ特定し、その特定した把持位置を基に視認可能領域を推定する構成でもよい。   Further, in the portable display device according to any one of claims 5 to 8, as described in claim 9, the portable display device includes a biological signal detection unit that is provided in the gripping unit and detects a biological signal that represents a user's electrocardiogram. Originally, the gripping portion is provided on the side surfaces facing each other in the casing, and the visual recognition area estimation means determines the gripping positions of the user's left hand and right hand in the casing based on the detection result by the biological signal detection means, respectively. It may be configured to identify and estimate the visually recognizable region based on the identified gripping position.

このような構成では、ユーザの心電を表す生体信号の電位差から、一対の把持部のうち、ユーザの左手が接触されている把持部と、右手が接触されている把持部とを識別することができるため、筐体におけるユーザの左手および右手による把持位置を特定できる。   In such a configuration, from the potential difference of the biological signal representing the electrocardiogram of the user, the gripping part that is in contact with the left hand of the user and the gripping part that is in contact with the right hand of the pair of gripping parts are identified. Therefore, the grip position by the user's left hand and right hand in the housing can be specified.

このため、例えばユーザから見て表示部の位置が上下方向に移動する構成では、ユーザの左手および右手による把持位置から、ユーザの顔の位置(向き)を推定することにより、さらに視認可能領域を推定できるため、必ずしも上記撮像手段や顔認識手段を要することなく、ユーザにとっての使い勝手を向上させることができる。なお、この場合、表示部は、表示される画像の向きを上下方向に変更可能な構成であることが望ましい。   For this reason, for example, in a configuration in which the position of the display unit moves in the vertical direction when viewed from the user, the viewable region is further increased by estimating the position (orientation) of the user's face from the grip position by the user's left hand and right hand. Since it can be estimated, the user-friendliness for the user can be improved without necessarily requiring the imaging means and face recognition means. In this case, it is desirable that the display unit be configured to change the orientation of the displayed image in the vertical direction.

生体測定装置の外観を示す概略図であり、(a)は上面図、(b)は正面図、(c)は側面図である。It is the schematic which shows the external appearance of a biometric apparatus, (a) is a top view, (b) is a front view, (c) is a side view. 駆動機構の構成を示す概略図である。It is the schematic which shows the structure of a drive mechanism. 生体測定装置の構成を示すブロック図である。It is a block diagram which shows the structure of a biometric apparatus. 制御部が実行する表示位置変更処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the display position change process which a control part performs. 生体測定装置の使用例を示す概略図である。It is the schematic which shows the usage example of a biometric apparatus. 駆動機構の変形例を示す概略図である。It is the schematic which shows the modification of a drive mechanism. カメラの変形例を示す概略図である。It is the schematic which shows the modification of a camera. 携帯ゲーム機の外観を示す概略図であり、(a)は上面図、(b)は正面図、(c)は側面図である。It is the schematic which shows the external appearance of a portable game machine, (a) is a top view, (b) is a front view, (c) is a side view. 携帯ゲーム機の構成を示すブロック図である。It is a block diagram which shows the structure of a portable game machine. 制御部が実行する初期位置設定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the initial position setting process which a control part performs. 制御部が実行する表示位置補正処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the display position correction process which a control part performs. 携帯ゲーム機の変形例としての外観を示す概略図であり、(a)は上面図、(b)は正面図、(c)は側面図である。It is the schematic which shows the external appearance as a modification of a portable game machine, (a) is a top view, (b) is a front view, (c) is a side view. 他の実施形態におけるディスプレイ及び筐体の外観を示す第1の概略図である。It is the 1st schematic diagram showing appearance of a display and a case in other embodiments. 他の実施形態におけるディスプレイ及び筐体の外観を示す第2の概略図である。It is the 2nd schematic diagram which shows the external appearance of the display and housing | casing in other embodiment.

[第1実施形態]
以下に、本発明の可搬型表示装置が適用された第1実施形態としての生体測定装置を図面と共に説明する。
[First Embodiment]
A biometric apparatus as a first embodiment to which a portable display device of the present invention is applied will be described below with reference to the drawings.

本実施形態の生体測定装置1は、測定者(ユーザ)によって持ち運び可能な大きさ及び重さに設計されており、ユーザの心電や心拍、脈波などの数値(以下「生体数値」)を測定する装置であって、図1に示すように、ユーザの操作を介して測定された生体数値などを表す画像を表示するディスプレイ11と、ユーザの顔を撮像するためのカメラ12と、ユーザの心電および脈波を表す生体信号を検出する生体センサ群13とを備えている。   The biometric apparatus 1 according to the present embodiment is designed to have a size and a weight that can be carried by a measurer (user), and the user's electrocardiogram, heartbeat, pulse wave and other numerical values (hereinafter, “biological numerical values”). As shown in FIG. 1, a measuring device is a display 11 for displaying an image representing a biological value measured through a user operation, a camera 12 for imaging a user's face, a user's And a biosensor group 13 for detecting biosignals representing electrocardiogram and pulse wave.

なお、本実施形態の生体測定装置1は、生体センサ群13にて検出された生体信号に基づき、少なくとも心電および脈波の数値を測定するとともに、さらに心電においてR波が出現する間隔を基に心拍の数値(心拍数)を測定することを前提とする。   The biometric apparatus 1 according to the present embodiment measures at least numerical values of the electrocardiogram and pulse wave based on the biosignal detected by the biosensor group 13, and further sets an interval at which the R wave appears in the electrocardiogram. It is assumed that the heart rate value (heart rate) is measured based on this.

ディスプレイ11は、例えば周知の液晶ディスプレイや有機ELディスプレイ等の薄型表示装置であって、その表示画面のサイズとして生体測定装置1の大きさに応じたものが採用される。また、カメラ12は、例えばCCDやMOS等の固体撮像素子を用いた周知の撮像装置であって、その画素数として少なくともユーザの顔を識別可能なものが採用される。   The display 11 is a thin display device such as a well-known liquid crystal display or organic EL display, for example, and a display screen according to the size of the biometric device 1 is employed. The camera 12 is a well-known imaging device using a solid-state imaging device such as a CCD or MOS, and employs a camera that can identify at least the user's face as the number of pixels.

生体センサ群13は、生体信号のうち、一対の電極部14を用いてユーザの心電位を表す心電信号を出力する心電センサ21(図3参照)と、光学素子18を用いてユーザの脈波を表す脈波信号を出力する脈波センサ22(図3参照)とから構成される。このうち、心電センサ21は、ユーザの左右の手が一対の電極部14の一方および他方にそれぞれ接触した際に各電極部14間に生じる電位差(ユーザの心臓部を含む経路に流れる微弱電流に対応した値)に基づく信号を心電信号として出力するように構成されている。また、脈波センサ22は、光学素子18のうち、発光素子(非図示)からユーザの手に向けて放射された光がユーザの体内を通る毛細動脈に到達し、毛細動脈を流れる血液中のヘモグロビンに吸収されることなく反射した散乱光の一部を受光素子(非図示)が受光することにより、その受光量に基づく信号を脈波信号として出力するように構成されている。   The biosensor group 13 includes an electrocardiographic sensor 21 (see FIG. 3) that outputs an electrocardiogram signal representing a user's electrocardiogram using a pair of electrode units 14 among biosignals, and an optical element 18 that is used by the user. And a pulse wave sensor 22 (see FIG. 3) that outputs a pulse wave signal representing the pulse wave. Among these, the electrocardiographic sensor 21 is a potential difference (a weak current flowing in a path including the user's heart) that occurs between the electrodes 14 when the left and right hands of the user come into contact with one and the other of the pair of electrodes 14. A signal based on (a value corresponding to 1) is output as an electrocardiogram signal. In addition, the pulse wave sensor 22 is a component of the optical element 18 in which light emitted from a light emitting element (not shown) toward a user's hand reaches a capillary artery passing through the user's body and flows in the blood flowing through the capillary artery. A part of the scattered light reflected without being absorbed by hemoglobin is received by a light receiving element (not shown) so that a signal based on the amount of received light is output as a pulse wave signal.

また、本実施形態の生体測定装置1は、一対の電極部14が露出するように設けられた球状の第1筐体10と、第1筐体10の内部に格納された第2筐体20とを備えている。
第1筐体10は、透明または半透明の樹脂によって、第1筐体10の外周面および内周面が球状となるように成形されており、第2筐体20を覆うように配置されている。また、第1筐体10において互いに対向する側面には、それぞれ電極部14が一つずつ設けられている。ここで、電極部14には、ユーザの手に微弱な電流を流すための二つの印加電極14aと二つの基準電極14bとが設けられており、印加電圧と電流値とに基づいてユーザの生体インピーダンスを計測することで、例えば心電測定前にユーザが電極部に触れている面積(量)が推定できるようになっている。なお、本実施形態の印加電極14aは、心電測定時においては、心電信号を検出するための検出電極として使用される。
In addition, the biometric device 1 according to the present embodiment includes a spherical first housing 10 provided so that the pair of electrode portions 14 are exposed, and a second housing 20 stored inside the first housing 10. And.
The first housing 10 is formed of a transparent or translucent resin so that the outer peripheral surface and the inner peripheral surface of the first housing 10 are spherical, and is arranged so as to cover the second housing 20. Yes. In addition, one electrode portion 14 is provided on each side surface of the first housing 10 that faces each other. Here, the electrode unit 14 is provided with two application electrodes 14a and two reference electrodes 14b for allowing a weak current to flow in the user's hand. Based on the applied voltage and the current value, the living body of the user is provided. By measuring the impedance, for example, the area (amount) of the user touching the electrode part before the electrocardiogram measurement can be estimated. In addition, the application electrode 14a of this embodiment is used as a detection electrode for detecting an electrocardiogram signal during electrocardiogram measurement.

第2筐体20は、第1筐体10の内周面に沿って球状に形成された球面部20aと、互いに対向するように平面状に形成された一対の平面部20bとから構成されている。また、一対の平面部20bのうちの一方には、その中央部にディスプレイ11が配置され、ディスプレイ11の上側部にカメラ12が設けられている。なお、ディスプレイ11は、画像の表示面が第2筐体20の外側を向いており、平面部20bと平行に配置されている。また、カメラ12は、第2筐体20の外側に向かって平面部20bの垂直方向を中心とする所定の角度範囲を撮像領域とするように配置されている。一方、第2筐体20の球面部20aには、第1筐体10の内周面を摺動する複数のローラ部材28と、ローラ部材28(第2筐体)を制動するストッパ部材29(図2参照)が配置されている。   The second housing 20 is composed of a spherical portion 20a formed in a spherical shape along the inner peripheral surface of the first housing 10 and a pair of flat portions 20b formed in a planar shape so as to face each other. Yes. Moreover, the display 11 is arrange | positioned in the center part in one of a pair of plane parts 20b, and the camera 12 is provided in the upper part of the display 11. FIG. The display 11 has an image display surface facing the outside of the second housing 20 and is arranged in parallel with the flat surface portion 20b. In addition, the camera 12 is arranged so that a predetermined angle range centering on the vertical direction of the planar portion 20b is an imaging region toward the outside of the second housing 20. On the other hand, the spherical surface portion 20a of the second housing 20 has a plurality of roller members 28 that slide on the inner peripheral surface of the first housing 10 and a stopper member 29 that brakes the roller member 28 (second housing). 2) is arranged.

なお、ローラ部材28は、第2筐体20の外周面において回転自在に設けられており、ストッパ部材29は、第2筐体20の外周面に垂直な方向に押し出し可能に構成されており、制御部30(図3参照)からの指令に基づいてアクチュエータ26(図3参照)を介して押し出された状態で、第1筐体10の内周面に当接し、摩擦力によって第2筐体20を制動するようになっている。   The roller member 28 is rotatably provided on the outer peripheral surface of the second housing 20, and the stopper member 29 is configured to be extruded in a direction perpendicular to the outer peripheral surface of the second housing 20, In a state of being pushed out via the actuator 26 (see FIG. 3) based on a command from the control unit 30 (see FIG. 3), the second housing is brought into contact with the inner peripheral surface of the first housing 10 by friction force. 20 is braked.

また、第2筐体20の内部には、制御部30(図3参照)からの指令に基づいて、第1筐体10に対して第2筐体20の位置を移動させる駆動機構23と、加速度センサ24およびジャイロセンサ25(図3参照)が設けられている。   Further, inside the second housing 20, a drive mechanism 23 that moves the position of the second housing 20 relative to the first housing 10 based on a command from the control unit 30 (see FIG. 3), An acceleration sensor 24 and a gyro sensor 25 (see FIG. 3) are provided.

駆動機構23は、図2に示すように、ディスプレイ11の表示画面に垂直な軸をX軸、表示画面の左右方向に平行な軸をY軸、表示画面の上下方向に平行な軸をZ軸として、第2筐体20の重心を変更させる錘部15と、X軸、Y軸、及びZ軸に沿って錘部15を搬送する3軸スライド部16とを備える。なお、3軸スライド部16は、X軸、Y軸、Z軸に沿ってそれぞれ配設された3つのスライド部としてのX軸スライド部16x、Y軸スライド部16y、およびZ軸スライド部16zからなり、Y軸スライド部16yの中点とZ軸スライド部16zとが連結され、この連結点がX軸スライド部16xの端部に接続されて連結部17をなしている。また、錘部15および3軸スライド部16は、錘部15が連結部17を介して各軸スライド部16x,16y,16zにおける一方から他方に移動可能に形成されている。このように、駆動機構23は、3軸スライド部16における錘部15の位置を移動させることにより、第1筐体10に対して第2筐体20を360度変位させることが可能に構成されている。   As shown in FIG. 2, the drive mechanism 23 has an axis perpendicular to the display screen of the display 11 as an X axis, an axis parallel to the horizontal direction of the display screen as a Y axis, and an axis parallel to the vertical direction of the display screen as a Z axis. Are provided with a weight portion 15 for changing the center of gravity of the second housing 20 and a three-axis slide portion 16 for conveying the weight portion 15 along the X axis, the Y axis, and the Z axis. The three-axis slide unit 16 includes an X-axis slide unit 16x, a Y-axis slide unit 16y, and a Z-axis slide unit 16z as three slide units arranged along the X-axis, Y-axis, and Z-axis, respectively. Thus, the middle point of the Y-axis slide part 16y and the Z-axis slide part 16z are connected, and this connection point is connected to the end of the X-axis slide part 16x to form the connection part 17. Further, the weight portion 15 and the triaxial slide portion 16 are formed so that the weight portion 15 can be moved from one to the other in each of the shaft slide portions 16x, 16y, and 16z via the connecting portion 17. As described above, the drive mechanism 23 is configured to be able to displace the second housing 20 by 360 degrees with respect to the first housing 10 by moving the position of the weight portion 15 in the triaxial slide portion 16. ing.

加速度センサ24は、X軸、Y軸、及びZ軸における第2筐体20(および第1筐体10)の加速度をそれぞれ検出するように構成され、ジャイロセンサ25は、これらX軸、Y軸、及びZ軸を中心とする第2筐体20(および第1筐体10)の回転角および角速度を検出するように構成されている。   The acceleration sensor 24 is configured to detect the acceleration of the second housing 20 (and the first housing 10) in the X axis, the Y axis, and the Z axis, and the gyro sensor 25 is configured to detect the X axis, the Y axis, and the Y axis. , And the rotation angle and angular velocity of the second casing 20 (and the first casing 10) about the Z axis.

さらに、本実施形態の生体測定装置1は、図3に示すように、加速度センサ24、ジャイロセンサ25、カメラ12、心電センサ21、および脈波センサ22からの入力信号に基づいて各種処理を行い、駆動機構23、アクチュエータ26、およびディスプレイ11の制御を行う制御部30を備えている。   Furthermore, as shown in FIG. 3, the biometric device 1 of the present embodiment performs various processes based on input signals from the acceleration sensor 24, the gyro sensor 25, the camera 12, the electrocardiogram sensor 21, and the pulse wave sensor 22. And a control unit 30 that controls the drive mechanism 23, the actuator 26, and the display 11.

制御部30は、CPU、及び、ROMやRAM等のメモリを含むマイクロコンピュータを中心に構成されており、CPUが、例えばROMに記憶されているプログラムに基づき、RAMを作業領域として、少なくとも心電センサ21および脈波センサ22からの入力信号を基にユーザの心電や心拍、脈波といった生体数値を算出し、この算出結果をディスプレイ11に表示させる生体表示処理を実行する。   The control unit 30 is mainly configured by a microcomputer including a CPU and a memory such as a ROM and a RAM. The CPU is based on a program stored in the ROM, for example, and uses at least the electrocardiogram as a work area. Based on the input signals from the sensor 21 and the pulse wave sensor 22, biological numerical values such as a user's electrocardiogram, heartbeat, and pulse wave are calculated, and a biological display process for displaying the calculation result on the display 11 is executed.

また、制御部30のメモリには、3軸スライド部16における錘部15の位置(及び重力方向)と、第1筐体10に対するディスプレイ11の相対位置との相関関係を表す位置決めマップが格納されている。   Further, the memory of the control unit 30 stores a positioning map representing the correlation between the position of the weight unit 15 (and the direction of gravity) in the three-axis slide unit 16 and the relative position of the display 11 with respect to the first housing 10. ing.

そして、制御部30のCPUは、少なくともカメラ12、加速度センサ24、およびジャイロセンサ25からの入力に基づいて、ユーザの顔の向き(顔の位置)を特定し、第1筐体10におけるユーザの視認可能な領域(視認可能領域)に含まれる位置(特定位置)にディスプレイ11の位置を変更させる以下の表示位置変更処理を実行する。   Then, the CPU of the control unit 30 specifies the orientation of the user's face (face position) based on at least inputs from the camera 12, the acceleration sensor 24, and the gyro sensor 25, and the user's face in the first housing 10 is determined. The following display position changing process for changing the position of the display 11 to a position (specific position) included in a viewable area (viewable area) is executed.

[表示位置変更処理]
ここで、表示位置変更処理の詳細を図4のフローチャートに沿って説明する。なお、本処理は、生体測定装置1の本体の電源が投入(オン)されると起動し、この電源がオフにされるまで繰り返し実行される。なお、本処理の起動時には、ストッパ部材29によって第2筐体20が第1筐体10に対して移動できない状態であることを前提とする。
[Display position change processing]
Here, the details of the display position change process will be described with reference to the flowchart of FIG. This process starts when the main body of the biometric apparatus 1 is turned on (on), and is repeatedly executed until this power is turned off. Note that it is assumed that the second housing 20 cannot be moved with respect to the first housing 10 by the stopper member 29 at the time of starting this processing.

本処理が起動されると、S110では、制御部30のCPUが、周知のパターンマッチング技術を用いた画像処理を行うことにより、カメラ12からの入力画像(撮像画像)にユーザの顔が含まれているか否かを判断し、ここで肯定判断した場合にはS120に移行し、否定判断した場合にはS150に移行する。   When this processing is started, in S110, the CPU of the control unit 30 performs image processing using a known pattern matching technique, so that the input image (captured image) from the camera 12 includes the user's face. If the determination is affirmative, the process proceeds to S120. If the determination is negative, the process proceeds to S150.

S120では、S110にてユーザの顔が含まれていると判断した撮像画像の中から、例えばユーザの顔における各パーツ(目、鼻、口など)の位置や顔の輪郭などに基づいて、ユーザの顔の向きを認識し、S130に移行する。   In S120, based on the position of each part (eyes, nose, mouth, etc.) in the user's face, the contour of the face, etc. from the captured image determined to include the user's face in S110, the user Is recognized, and the process proceeds to S130.

S130では、S120にて認識したユーザの顔の向きから、第1筐体10における視認可能領域を推定して、S140に移行する。
S140では、S130にて推定した視認可能領域のうち、ユーザの顔の向きが生体測定装置1の方向となるためにユーザが顔を動かす必要のある距離(顔の移動量)が最小距離(最小移動量)で済む位置(視認位置)を特定(設定)し、S180に移行する。
In S130, the viewable area in the first housing 10 is estimated from the orientation of the user's face recognized in S120, and the process proceeds to S140.
In S140, in the viewable region estimated in S130, the distance that the user needs to move the face (the amount of movement of the face) because the orientation of the user's face becomes the direction of the biometric device 1 is the minimum distance (minimum). The position (viewing position) that only needs to be moved is specified (set), and the process proceeds to S180.

一方、S110にてユーザの顔が撮像画像に含まれていないと判断した場合に移行するS150では、加速度センサ24およびジャイロセンサ25からの入力に基づいて、ユーザが生体測定装置1を傾けたり振ったりすることにより第1筐体10が振動を受けたか否かを判断し、ここで肯定判断した場合にはS160に移行し、否定判断した場合には、第1筐体10が振動を受けるまで待機する。   On the other hand, in S <b> 150, which is performed when it is determined that the user's face is not included in the captured image in S <b> 110, the user tilts or shakes the biometric device 1 based on inputs from the acceleration sensor 24 and the gyro sensor 25. If the determination is affirmative, the process proceeds to S160. If the determination is negative, the first casing 10 is subjected to vibration. stand by.

S160では、加速度センサ24およびジャイロセンサ25からの入力に基づいて、第1筐体10の振動方向(生体測定装置1の傾斜方向)および加速度(または角速度並びに回転角)を検出し、その検出結果に応じた方向および回転量だけ第2筐体20を第1筐体10に対して移動させたときの位置(第1筐体10に対するディスプレイ11の相対位置)を設定し、S170に移行する。   In S160, based on the inputs from the acceleration sensor 24 and the gyro sensor 25, the vibration direction (inclination direction of the biometric device 1) and acceleration (or angular velocity and rotation angle) of the first housing 10 are detected, and the detection results thereof. The position (the relative position of the display 11 with respect to the first housing 10) when the second housing 20 is moved with respect to the first housing 10 by the direction and the amount of rotation according to is set, and the process proceeds to S170.

S170では、アクチュエータ26を介してストッパ部材29による第2筐体の制動を解除するとともに、S160にて設定した相対位置にディスプレイ11が移動するように、制御部30のメモリに格納されている位置決めマップを用いて、3軸スライド部16における錘部15の位置を指定する制御指令を駆動機構23に出力し、S110に戻る。なお、位置決めマップでは、加速度センサ24に基づいて第2筐体20の重力方向を検出し、この重力方向とS160にて設定した相対位置とから、錘部15の位置が一意に決まるようになっている。   In S170, the braking of the second housing by the stopper member 29 is released via the actuator 26, and the positioning stored in the memory of the control unit 30 so that the display 11 moves to the relative position set in S160. Using the map, a control command specifying the position of the weight portion 15 in the three-axis slide portion 16 is output to the drive mechanism 23, and the process returns to S110. In the positioning map, the gravitational direction of the second housing 20 is detected based on the acceleration sensor 24, and the position of the weight portion 15 is uniquely determined from the gravitational direction and the relative position set in S160. ing.

このようにS110〜S170の処理を繰り返し実行することにより、S140にてユーザの視認位置が設定された場合に移行するS180では、第1筐体10におけるユーザの視認位置(S140での設定位置)にディスプレイ11の相対位置が移動するように、S170と同様の方法により、3軸スライド部16における錘部15の位置を指定する制御指令を駆動機構23に出力し、S110に戻る。なお、駆動機構23によってディスプレイ11の位置が視認位置に到達すると、アクチュエータ26を介してストッパ部材29による第2筐体20の制動力を発動させることにより、ディスプレイ11の位置が動かないように固定する。   By repeatedly executing the processes of S110 to S170 in this way, the user's visual position in the first housing 10 (the set position in S140) is shifted to S180 when the user's visual position is set in S140. In the same manner as in S170, the control command for designating the position of the weight portion 15 in the triaxial slide portion 16 is output to the drive mechanism 23 so that the relative position of the display 11 is moved, and the process returns to S110. When the position of the display 11 reaches the visual recognition position by the drive mechanism 23, the braking force of the second housing 20 by the stopper member 29 is activated via the actuator 26 to fix the position of the display 11 so as not to move. To do.

[第1実施形態の効果]
以上説明したように、本実施形態の生体測定装置1では、ユーザの電極部14および光学素子18への接触操作に基づく生体信号を生体センサ群13から入力し、この生体信号に基づいて生体数値を算出した結果をディスプレイ11に表示させる生体表示処理を行うとともに、第1筐体10におけるユーザの視認可能領域を推定して、この領域に含まれるユーザの視認位置にディスプレイ11の位置を変更させる表示位置変更処理を実行する。
[Effect of the first embodiment]
As described above, in the biometric apparatus 1 according to the present embodiment, a biological signal based on a user's contact operation with the electrode unit 14 and the optical element 18 is input from the biological sensor group 13, and a biological value is based on the biological signal. A biological display process for displaying the calculated result on the display 11 is performed, and a user's viewable area in the first housing 10 is estimated, and the position of the display 11 is changed to the user's viewable position included in this area. The display position changing process is executed.

したがって、生体測定装置1によれば、常に第1筐体10におけるユーザの視認可能領域内に生体数値の算出結果が表示されるようにディスプレイ11の表示位置が駆動制御されるため、ユーザが電極部14および光学素子18への接触操作時に、例えば座った状態(図5(a)参照)から寝転んだ状態に姿勢を変えたとしても、ユーザの視認位置から表示画像が離れずに済み、ひいてはユーザにとっての使い勝手を向上させることができる。   Therefore, according to the living body measurement apparatus 1, the display position of the display 11 is driven and controlled so that the calculation result of the living body numerical value is always displayed in the user's viewable area in the first housing 10, so that the user can Even when the posture is changed from a sitting state (see FIG. 5A) to a lying state at the time of the contact operation to the unit 14 and the optical element 18, for example, the display image does not leave the viewing position of the user. Usability for the user can be improved.

また、生体測定装置1では、表示位置変更処理において、カメラ12の撮像画像に基づいてユーザの顔の向きを認識し、この認識結果を用いてユーザが顔を極力動かすことなくディスプレイ11を視認できる位置を、第1筐体におけるユーザの視認位置としてディスプレイ11の表示位置を駆動制御するように構成されている。   Moreover, in the biometric apparatus 1, in the display position changing process, the orientation of the user's face is recognized based on the captured image of the camera 12, and the user can visually recognize the display 11 using this recognition result without moving the face as much as possible. The display position of the display 11 is driven and controlled with the position as the user's visual recognition position in the first housing.

このため、生体測定装置1によれば、ユーザがあまり顔を動かすことなく自動的にディスプレイ11の表示位置がユーザの視認位置に変更されるので、ユーザの操作負担をより軽減させることができ、ひいてはユーザにとっての使い勝手をより向上させることができる。   For this reason, according to the biometric apparatus 1, since the display position of the display 11 is automatically changed to a user's visual recognition position without moving a face so much, a user's operation burden can be further reduced. As a result, usability for the user can be further improved.

さらに、表示位置変更処理では、カメラ12の撮像画像を用いてユーザの顔を認識できない場合には、ユーザが生体測定装置1を傾けたり振ったりする操作を加速度センサ24およびジャイロセンサ25によって検出し、そのユーザの操作に従ってユーザの視認可能領域を推定して、ディスプレイ11の位置を変更させるように構成されている。   Further, in the display position changing process, when the user's face cannot be recognized using the captured image of the camera 12, the acceleration sensor 24 and the gyro sensor 25 detect an operation of the user tilting or shaking the biometric device 1. The user's viewable area is estimated according to the user's operation, and the position of the display 11 is changed.

このため、生体測定装置1によれば、ユーザが直感的な操作によって自動的にディスプレイ11の表示位置がユーザの視認位置に変更されるので、カメラ12によってユーザの顔の向きを認識できない場合であっても、ユーザに複雑な操作を課することなく、簡易にディスプレイ11の表示位置を調整することができる。   For this reason, according to the biometric apparatus 1, the display position of the display 11 is automatically changed to the user's visual position by the user's intuitive operation, and therefore the camera 12 cannot recognize the orientation of the user's face. Even in such a case, the display position of the display 11 can be easily adjusted without imposing a complicated operation on the user.

[発明との対応]
なお、本実施形態において、ディスプレイ11が表示部、駆動機構23が駆動手段、S130の処理を実行する制御部30が視認領域推定手段、S140およびS170の処理を実行する制御部30が視認位置設定手段、カメラ12が撮像手段、S110及びS120の処理を実行する制御部30が顔認識手段、S150の処理を実行する制御部30が変位検出手段、電極部14および光学素子18が把持部、心電センサ21および脈波センサ22が生体信号検出手段、生体表示処理を実行する制御部30が生体表示制御手段の各一例にそれぞれ相当する。
[Correspondence with Invention]
In this embodiment, the display 11 is a display unit, the drive mechanism 23 is a drive unit, the control unit 30 that executes the process of S130 is a visual recognition area estimation unit, and the control unit 30 that executes the processes of S140 and S170 is a visual position setting. Means, the camera 12 is the imaging means, the control unit 30 that executes the processing of S110 and S120 is the face recognition means, the control unit 30 that executes the processing of S150 is the displacement detection means, the electrode unit 14 and the optical element 18 are the gripping unit, the heart The electric sensor 21 and the pulse wave sensor 22 correspond to an example of the biological signal detection means, and the control unit 30 that executes the biological display processing corresponds to an example of the biological display control means.

[変形例]
上記第1実施形態の表示位置変更処理は、生体測定装置1の本体の電源がオンされると起動するようになっているが、これに限定されるものではなく、例えば、電極部14からの入力(印加電圧、電流値)に基づいてユーザの生体インピーダンスを計測したうえで、ユーザが電極部に触れている面積が所定量以上であると判断した場合に起動するようにしてもよい。
[Modification]
The display position changing process of the first embodiment is started when the power source of the main body of the biometric device 1 is turned on. However, the display position changing process is not limited to this. You may make it start, when it measures that a user's bioimpedance is measured based on an input (applied voltage, electric current value), and the area where the user is touching the electrode part is more than predetermined amount.

また、上記第1実施形態の表示位置変更処理では、カメラ12の撮像画像や、加速度センサ24およびジャイロセンサ25からの入力に基づいて、ユーザの視認可能領域を推定しているが、これに限定されるものではない。例えば、心電センサ21からの入力(心電信号)に基づいて、第1筐体10における一対の電極部14がそれぞれ、ユーザの左手および右手のいずれが接触されているかを特定し、この特定した電極部14とユーザの手(例えば電極部14への接触面積)との位置関係からユーザの顔の向き(ひいては視認可能領域)を推定してもよい。この場合、推定したユーザの顔の向きに応じて、ディスプレイ11における表示画像の向きを上下方向に変更するように構成してもよい。   In the display position change process of the first embodiment, the user's viewable area is estimated based on the captured image of the camera 12 and the input from the acceleration sensor 24 and the gyro sensor 25. However, the present invention is not limited to this. Is not to be done. For example, on the basis of an input (electrocardiogram signal) from the electrocardiographic sensor 21, the pair of electrode portions 14 in the first housing 10 respectively identify which of the user's left hand and right hand is in contact, and this identification The orientation of the user's face (and hence the visible region) may be estimated from the positional relationship between the electrode unit 14 and the user's hand (for example, the contact area with the electrode unit 14). In this case, the orientation of the display image on the display 11 may be changed in the vertical direction according to the estimated orientation of the user's face.

また、上記第1実施形態の駆動機構23は、第1筐体10に対して第2筐体20が3軸(X軸,Y軸,Z軸)を中心に360度回転可能に構成されているが、これに限定されるものではない。   The drive mechanism 23 of the first embodiment is configured such that the second housing 20 can rotate 360 degrees with respect to the first housing 10 about three axes (X axis, Y axis, Z axis). However, it is not limited to this.

例えば、図6(a)に示すように、X軸,Y軸,Z軸のうちいずれかの1軸を中心にディスプレイ11が第1筐体10に対して360度回転可能に構成されてもよい。この場合、3軸スライド部16の代わりに、例えば、第2筐体20を第1筐体10に対して上記1軸を中心に回転変位させる環状スライド部36を設け、この環状スライド部36が第1筐体10に上記1軸方向に沿って接続されていればよい(非図示)。また、第2筐体20の内部には、ディスプレイ11の傾斜方向がユーザの顔の向きになるように、上記1軸を重力方向に合わせるための錘部35を設けてもよい。   For example, as shown in FIG. 6A, even if the display 11 is configured to be able to rotate 360 degrees with respect to the first housing 10 around one of the X axis, the Y axis, and the Z axis. Good. In this case, instead of the three-axis slide part 16, for example, an annular slide part 36 that rotates and displaces the second casing 20 around the one axis with respect to the first casing 10 is provided. What is necessary is just to be connected to the 1st housing | casing 10 along the said 1 axial direction (not shown). Further, a weight portion 35 for aligning the one axis with the direction of gravity may be provided inside the second housing 20 so that the inclination direction of the display 11 is the direction of the user's face.

あるいは、駆動機構23は、図6(b)に示すように、ディスプレイ11の傾斜方向を変位させるための角度ステージ37や、ディスプレイ11を左右方向に回転させるための回転ステージ38を設け、これらのステージ37,38を制御部30の指令に従って駆動制御する構成でもよい。この場合、ディスプレイ11は、第1筐体10の半球部分しか移動することができないが、ディスプレイ11の向きを高精度に調整することができる。   Alternatively, as shown in FIG. 6B, the drive mechanism 23 is provided with an angle stage 37 for displacing the tilt direction of the display 11 and a rotary stage 38 for rotating the display 11 in the left-right direction. A configuration in which the stages 37 and 38 are driven and controlled in accordance with commands from the control unit 30 may be employed. In this case, the display 11 can move only the hemispherical portion of the first housing 10, but the orientation of the display 11 can be adjusted with high accuracy.

また、上記第1実施形態のカメラ12は、第2筐体20の平面部20bにおいてディスプレイ11と一体に設けられているが、これに限定されるものではなく、例えば、図7に示すように、第1筐体10の外側面において第1筐体10の外側における各方向に向かって画像を撮像するように複数設けられる構成でもよい。この場合、複数のカメラ12のいずれかによってユーザの顔を必ず認識することが可能となる。あるいは、カメラ12に代えて、周囲の温度を検出する温度センサ39を備え、温度が高いと思われる人体の位置をユーザの顔の位置として推定することも可能である。   Moreover, although the camera 12 of the said 1st Embodiment is integrally provided with the display 11 in the plane part 20b of the 2nd housing | casing 20, it is not limited to this, For example, as shown in FIG. Further, a configuration may be adopted in which a plurality of images are taken on the outer surface of the first housing 10 so as to capture images in each direction on the outer side of the first housing 10. In this case, the user's face can be surely recognized by any of the plurality of cameras 12. Alternatively, instead of the camera 12, a temperature sensor 39 that detects the ambient temperature may be provided, and the position of the human body that is considered to be high in temperature may be estimated as the position of the user's face.

[第2実施形態]
次に、本発明の可搬型表示装置が適用された第2実施形態としての携帯ゲーム機を図面と共に説明する。なお、第1実施形態と同じ構成については、同じ図面番号を付すことによりその詳細な説明を省略する。
[Second Embodiment]
Next, a portable game machine as a second embodiment to which the portable display device of the present invention is applied will be described with reference to the drawings. In addition, about the same structure as 1st Embodiment, the detailed description is abbreviate | omitted by attaching | subjecting the same drawing number.

本実施形態の携帯ゲーム機2は、測定者(ユーザ)によって持ち運び可能な大きさ及び重さに設計されており、主にアクションゲームやシューティングゲーム等の体感型ゲームを行うための装置であって、図8に示すように、ユーザの操作に応じたゲーム画像を表示するディスプレイ11と、カメラ12と、ユーザに把持される一対の把持部43とを備えている。   The portable game machine 2 according to the present embodiment is designed to have a size and weight that can be carried by a measurer (user), and is a device for performing a sensation-type game such as an action game or a shooting game. As shown in FIG. 8, the display 11 displays a game image corresponding to the user's operation, the camera 12, and a pair of grip portions 43 gripped by the user.

把持部43は、ユーザが握り易い形状を有しており、第1筐体10において互いに対向する側面に一つずつ設けられている。そして、一対の把持部43がアーチ状に繋がれてなる連結部材44によって第1筐体10の外周面に固定されている。また、把持部43には、押しボタンスイッチや十字キーからなり、ユーザの操作内容を入力するための操作部45が設けられている。   The grip portion 43 has a shape that can be easily gripped by the user, and is provided one by one on the side surfaces facing each other in the first housing 10. And a pair of holding part 43 is being fixed to the outer peripheral surface of the 1st housing | casing 10 by the connection member 44 connected in arch shape. In addition, the grip portion 43 is provided with an operation portion 45 that is composed of a push button switch or a cross key and for inputting user operation details.

なお、第1筐体10、第2筐体20、駆動機構23の構成は、第1実施形態と同じであるため、その詳細な説明を省略する。
また、本実施形態の携帯ゲーム機2は、図9に示すように、加速度センサ24、ジャイロセンサ25、カメラ、操作部45からの入力信号に基づいて各種処理を行い、駆動機構23およびディスプレイ11の制御を行う制御部30を備えている。
In addition, since the structure of the 1st housing | casing 10, the 2nd housing | casing 20, and the drive mechanism 23 is the same as 1st Embodiment, the detailed description is abbreviate | omitted.
Further, as shown in FIG. 9, the portable game machine 2 of the present embodiment performs various processes based on input signals from the acceleration sensor 24, the gyro sensor 25, the camera, and the operation unit 45, and the drive mechanism 23 and the display 11. The control part 30 which performs control of is provided.

本実施形態の制御部30は、例えば体感型ゲームのプログラムに基づき、少なくとも操作部45からの入力信号に応じたゲーム画像をディスプレイ11に表示させるゲーム表示処理を実行する。なお、ゲームのプログラムは、通信ネットワークによって配信されるものであってもよいし、可搬型の記憶装置によって提供されるものであってもよい。このため、本実施形態の携帯ゲーム機2は、通信ネットワークに接続される通信部46と、可搬型の記憶装置に接続される外部接続部47とをさらに備えている。   The control unit 30 according to the present embodiment executes a game display process for causing the display 11 to display at least a game image corresponding to an input signal from the operation unit 45 based on, for example, a bodily sensation game program. The game program may be distributed via a communication network or may be provided by a portable storage device. For this reason, the portable game machine 2 of this embodiment further includes a communication unit 46 connected to a communication network and an external connection unit 47 connected to a portable storage device.

また、制御部30のメモリには、3軸スライド部16における錘部15の位置(及び重力方向)と、第1筐体10に対するディスプレイ11の相対位置との相関関係を表す位置決めマップが格納されている。   Further, the memory of the control unit 30 stores a positioning map representing the correlation between the position of the weight unit 15 (and the direction of gravity) in the three-axis slide unit 16 and the relative position of the display 11 with respect to the first housing 10. ing.

そして、制御部30のCPUは、少なくとも加速度センサ24およびジャイロセンサ25からの入力に基づいて、ディスプレイ11の初期位置を設定する初期位置設定処理と、さらにカメラ12の撮像画像を用いてディスプレイ11の位置を補正する表示位置補正処理とを実行する。   Then, the CPU of the control unit 30 uses an initial position setting process for setting an initial position of the display 11 based on at least inputs from the acceleration sensor 24 and the gyro sensor 25, and further uses a captured image of the camera 12 to display the display 11. Display position correction processing for correcting the position is executed.

[初期位置設定処理]
まず、初期位置設定処理の詳細を図10のフローチャートに沿って説明する。なお、本処理は、携帯ゲーム機2の本体の電源が投入(オン)されると、ゲームのプログラム開始前(例えばゲーム表示処理の実行前)に起動する。
[Initial position setting processing]
First, details of the initial position setting process will be described with reference to the flowchart of FIG. This process is started before the game program is started (for example, before the game display process is executed) when the main body of the portable game machine 2 is turned on.

本処理が起動されると、S210では、制御部のCPUが、操作部45からの入力信号に基づいて、操作部45の十字キーの押下方向および押下時間を表す十字キー信号が入力されたか否かを判断し、ここで肯定判断した場合にはS240に移行し、否定判断した場合にはS220に移行する。   When this process is started, in S210, based on the input signal from the operation unit 45, the CPU of the control unit has input a cross key signal indicating the pressing direction and pressing time of the cross key of the operation unit 45. If the determination is affirmative, the process proceeds to S240. If the determination is negative, the process proceeds to S220.

S220では、加速度センサ24およびジャイロセンサ25からの入力信号に基づいて、ユーザが携帯ゲーム機2を傾けたり振ったりすることにより第1筐体10(または把持部43)が振動を受けたか否かを判断し、ここで肯定判断した場合にはS250に移行し、否定判断した場合にはS230に移行する。   In S220, based on the input signals from the acceleration sensor 24 and the gyro sensor 25, whether or not the first casing 10 (or the grip portion 43) is vibrated by the user tilting or shaking the portable game machine 2 is determined. If the determination is affirmative, the process proceeds to S250. If the determination is negative, the process proceeds to S230.

S230では、操作部45からの入力信号に基づいて、ユーザがディスプレイ11の初期位置を決定するための操作として、操作部45の押しボタンスイッチが押下されたか否かを判断し、ここで肯定判断した場合にはS260に移行し、否定判断した場合にはS210に戻る。   In S230, based on the input signal from the operation unit 45, it is determined whether or not the push button switch of the operation unit 45 is pressed as an operation for the user to determine the initial position of the display 11, and an affirmative determination is made here. If yes, the process proceeds to S260. If a negative determination is made, the process returns to S210.

S240では、S210にて入力された十字キー信号に基づいて、十字キーの押下方向にその押下時間に対応する回転量だけ第2筐体20を第1筐体10に対して移動するように、S170と同様の方法により、3軸スライド部16における錘部15の位置を指定する制御指令を駆動機構23に出力し、S210に戻る。   In S240, based on the cross key signal input in S210, the second casing 20 is moved relative to the first casing 10 by the amount of rotation corresponding to the pressing time in the pressing direction of the cross key. By a method similar to S170, a control command for designating the position of the weight portion 15 in the triaxial slide portion 16 is output to the drive mechanism 23, and the process returns to S210.

S250では、S220にて入力された加速度センサ24およびジャイロセンサ25からの信号に基づいて、第1筐体10(または把持部43)の振動方向(携帯ゲーム機2の傾斜方向)および加速度(または角速度並びに回転角)を検出し、その検出結果に応じた方向および回転量だけ第2筐体20が移動するように、S170と同様の方法により、3軸スライド部16における錘部15の位置を指定する制御指令を駆動機構23に出力し、S210に戻る。   In S250, based on the signals from the acceleration sensor 24 and the gyro sensor 25 input in S220, the vibration direction (inclination direction of the portable game machine 2) and acceleration (or the acceleration of the portable game machine 2) and / or acceleration (or (Angular velocity and rotation angle) is detected, and the position of the weight portion 15 in the triaxial slide portion 16 is determined by a method similar to S170 so that the second housing 20 moves by the direction and the amount of rotation according to the detection result. The designated control command is output to the drive mechanism 23, and the process returns to S210.

S260では、S220にてユーザに決定されたディスプレイ11の初期位置(換言すれば、第1筐体10に対する第2筐体20の相対位置)を制御部30のメモリに記憶し、本処理を終了する。   In S260, the initial position of the display 11 determined by the user in S220 (in other words, the relative position of the second housing 20 with respect to the first housing 10) is stored in the memory of the control unit 30, and the present process ends. To do.

[表示位置補正処理]
次に、表示位置補正処理の詳細を図11のフローチャートに沿って説明する。なお、本処理は、初期位置設定処理の終了後であって、例えばゲーム表示処理の実行とともに起動する。
[Display position correction processing]
Next, details of the display position correction processing will be described with reference to the flowchart of FIG. This process is started after the end of the initial position setting process, for example, when the game display process is executed.

本処理が起動されると、S310では、加速度センサ24およびジャイロセンサ25からの入力信号に基づいて、ユーザが携帯ゲーム機2を傾けたり振ったりすることにより第1筐体10(または把持部43)が振動を受けたか否かを判断し、ここで肯定判断した場合にはS320に移行し、否定判断した場合にはS330に移行する。   When this process is started, in S310, the user tilts or shakes the portable game machine 2 based on the input signals from the acceleration sensor 24 and the gyro sensor 25, so that the first casing 10 (or the gripping unit 43). ) Is subjected to vibration, and if affirmative determination is made here, the process proceeds to S320, and if negative determination is performed, the process proceeds to S330.

S320では、S310にて入力された加速度センサ24およびジャイロセンサ25からの信号に基づいて、第1筐体10(または把持部43)の振動方向(携帯ゲーム機2の傾斜方向)および加速度(または角速度並びに回転角)を検出し、その検出結果に応じた方向とは逆向きに検出結果に応じた回転量だけ第2筐体20が移動するように、S170と同様の方法により、3軸スライド部16における錘部15の位置を指定する制御指令を駆動機構23に出力し、S330に移行する。   In S320, based on the signals from the acceleration sensor 24 and the gyro sensor 25 input in S310, the vibration direction (inclination direction of the portable game machine 2) and acceleration (or the acceleration of the portable game machine 2) of the first housing 10 (or the grip portion 43). (Angular velocity and rotation angle) is detected, and the three-axis slide is performed in the same manner as in S170 so that the second housing 20 moves by the amount of rotation corresponding to the detection result in the direction opposite to the direction corresponding to the detection result. A control command designating the position of the weight portion 15 in the portion 16 is output to the drive mechanism 23, and the process proceeds to S330.

S330では、カメラ12からの入力画像(撮像画像)における所定位置(例えば中心部の上側位置)と、ユーザの顔の位置とのズレ量(及びその方向)を周知の画像処理の手法を用いて算出し、S340に移行する。   In S330, the amount of deviation (and the direction) between a predetermined position (for example, the upper position of the central portion) in the input image (captured image) from the camera 12 and the position of the user's face is used using a known image processing technique. After calculating, the process proceeds to S340.

S340では、S330にて算出したズレ量(及びその方向)だけ第2筐体20(ひいてはディスプレイ11)が第1筐体10に対して移動するように、S170と同様の方法により、3軸スライド部16における錘部15の位置を指定する制御指令を駆動機構23に出力し、S310に戻る。   In S340, the three-axis slide is performed in the same manner as in S170 so that the second casing 20 (and thus the display 11) moves relative to the first casing 10 by the amount of deviation (and its direction) calculated in S330. A control command specifying the position of the weight portion 15 in the portion 16 is output to the drive mechanism 23, and the process returns to S310.

[第2実施形態の効果]
以上説明したように、本実施形態の携帯ゲーム機2では、ユーザの操作内容を操作部4から入力し、この操作内容を反映させたゲーム画像をディスプレイ11に表示させるゲーム表示処理を行うとともに、ユーザが携帯ゲーム機2を傾けたり振ったりする操作を加速度センサ24およびジャイロセンサ25によって検出し、その検出結果に基づいて第1筐体10におけるユーザの視認可能領域に含まれる視認位置にディスプレイ11の位置を変更させる処理を実行する。
[Effects of Second Embodiment]
As described above, in the portable game machine 2 of the present embodiment, the user's operation content is input from the operation unit 4, and the game display process for displaying the game image reflecting the operation content on the display 11 is performed. An operation in which the user tilts or shakes the portable game machine 2 is detected by the acceleration sensor 24 and the gyro sensor 25, and the display 11 is displayed at a viewing position included in the user's viewable area in the first housing 10 based on the detection result. The process of changing the position of is executed.

具体的には、携帯ゲーム機2では、表示位置補正処理において、加速度センサ24およびジャイロセンサ25からの入力信号に基づいて、把持部43の振動方向および加速度(または角速度並びに回転角)を検出し、その検出結果に応じた方向とは逆向きに当該回転量だけ第2筐体20が第1筐体10に対して移動させる駆動制御を行っている。   Specifically, in the portable game machine 2, in the display position correction process, the vibration direction and acceleration (or angular velocity and rotation angle) of the grip portion 43 are detected based on input signals from the acceleration sensor 24 and the gyro sensor 25. Then, drive control is performed in which the second casing 20 is moved relative to the first casing 10 by the rotation amount in the direction opposite to the direction according to the detection result.

したがって、携帯ゲーム機2によれば、例えばユーザが体感型ゲームのプレイ中に把持部43(操作部45)をどのように動かしたとしても、常に第1筐体10におけるユーザの視認可能領域内にゲーム画像が表示されるようにディスプレイ11の表示位置が駆動制御されるため、ユーザはディスプレイ11の位置を気にすることなく操作部45を動かすことができ、ひいてはユーザにとっての使い勝手を向上させることができる。   Therefore, according to the portable game machine 2, for example, no matter how the user moves the grip portion 43 (the operation unit 45) during the play of the bodily sensation-type game, it is always within the user's viewable area in the first housing 10. Since the display position of the display 11 is driven and controlled so that the game image is displayed on the screen, the user can move the operation unit 45 without worrying about the position of the display 11, thereby improving the usability for the user. be able to.

また、携帯ゲーム機2では、初期位置設定処理において、ユーザのキー操作だけでなく、加速度センサ24およびジャイロセンサ25からの入力信号に基づいて、把持部43の振動方向および加速度(または角速度並びに回転角)を検出し、その検出結果に応じた方向および回転量だけ第2筐体20を第1筐体10に対して移動させる駆動制御を行っている。   In the portable game machine 2, in the initial position setting process, not only the user's key operation but also the vibration direction and acceleration (or angular velocity and rotation) of the grip portion 43 based on input signals from the acceleration sensor 24 and the gyro sensor 25. Corner) and the second housing 20 is moved relative to the first housing 10 by a direction and a rotation amount according to the detection result.

このため、携帯ゲーム機2によれば、ユーザが直感的な操作によってディスプレイ11の初期位置が変更されるので、ユーザに必ずしも複雑な操作を課することなく、簡易にディスプレイ11の初期位置を調整することができる。   For this reason, according to the portable game machine 2, since the initial position of the display 11 is changed by an intuitive operation by the user, the initial position of the display 11 can be easily adjusted without necessarily imposing a complicated operation on the user. can do.

さらに、携帯ゲーム機2では、表示位置補正処理において、カメラ12の撮像画像に基づいてユーザの顔の位置を認識し、この認識結果を用いてゲーム画像に対するユーザの顔の位置のズレ量を算出して、そのズレ量を補正する駆動制御を行うため、常にユーザの最も見やすい位置にディスプレイ11の表示位置を合わせることができる。   Furthermore, in the portable game machine 2, in the display position correction process, the position of the user's face is recognized based on the image captured by the camera 12, and the amount of deviation of the position of the user's face with respect to the game image is calculated using this recognition result. Since the drive control for correcting the deviation amount is performed, the display position of the display 11 can always be adjusted to the position where the user can easily see.

[変形例]
上記第2実施形態の携帯ゲーム機2では、ディスプレイ11が第2筐体20と一体に設けられているが、これに限定されるものでなく、例えば図12に示すように、ディスプレイ11を有するスマートフォン3を第2筐体20に取り付け可能に構成されてもよい。この場合、スマートフォンが自身のディスプレイ11に対してゲーム表示処理を実行するとともに、携帯ゲーム機2の通信部46(図9参照)と通信可能に構成され、通信部46から送信されてくる携帯ゲーム機2の操作部45からの入力信号を受信して、この受信信号に応じたゲーム画像をディスプレイ11に表示することが望ましい。また、この場合、第1筐体10は、第2筐体20の一部を覆うように配置されてもよい。
[Modification]
In the portable game machine 2 of the second embodiment, the display 11 is provided integrally with the second housing 20, but the display 11 is not limited to this. For example, as shown in FIG. The smartphone 3 may be configured to be attachable to the second housing 20. In this case, the smart phone executes game display processing on its own display 11 and is configured to be communicable with the communication unit 46 (see FIG. 9) of the portable game machine 2, and is transmitted from the communication unit 46. It is desirable to receive an input signal from the operation unit 45 of the machine 2 and display a game image corresponding to the received signal on the display 11. In this case, the first housing 10 may be disposed so as to cover a part of the second housing 20.

[他の実施形態]
以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において、様々な態様にて実施することが可能である。
[Other Embodiments]
As mentioned above, although embodiment of this invention was described, this invention is not limited to the said embodiment, In the range which does not deviate from the summary of this invention, it is possible to implement in various aspects.

まず、上記実施形態の生体測定装置1および携帯ゲーム機2では、駆動機構23を用いて第1筐体10に対する第2筐体20の相対位置を移動させることにより、ディスプレイ11の位置を移動させ、その結果、ディスプレイ11の表示位置を変更させる構成であるが、本発明はこの構成に限定されるものではない。   First, in the biometric device 1 and the portable game machine 2 of the above-described embodiment, the position of the display 11 is moved by moving the relative position of the second housing 20 with respect to the first housing 10 using the drive mechanism 23. As a result, the display position of the display 11 is changed, but the present invention is not limited to this configuration.

例えば、図13(a)に示すように、第1筐体10に対して複数のディスプレイ11を固定させて配置し、複数のディスプレイ11のうち、各種センサ(例えばカメラ12や温度センサ39、加速度センサ24、ジャイロセンサ25等)からの入力に基づいて推定したユーザの視認可能領域内に位置するディスプレイ11を選択して、その選択されたディスプレイに画像を表示させる構成でもよい。   For example, as shown in FIG. 13A, a plurality of displays 11 are fixed and arranged with respect to the first housing 10, and various sensors (for example, a camera 12, a temperature sensor 39, an acceleration, etc.) among the plurality of displays 11. The display 11 located in the user's viewable area estimated based on the input from the sensor 24, the gyro sensor 25, etc.) may be selected and an image may be displayed on the selected display.

また、図13(b)に示すように、第1筐体10の外周面を覆うようにシート状のディスプレイ11を固定させて配置し、このディスプレイ11における複数の表示領域のうち、上記各種センサからの入力に基づいて推定したユーザの視認可能領域内に位置する表示領域を選択して、その選択された表示領域に画像を表示させる構成でもよい。この場合、第1筐体10の形状は、球状のものに限らず、例えば図13(c)に示すように、立方体または直方体のようにどのような形状のものを採用してもよい。例えば、図14(a)及び図14(b)に示すように、第1筐体10の形状が板状である場合には、その表面と裏面とにそれぞれディスプレイ11を固定させて配置し、上記各種センサからの入力に基づいて推定したユーザの視認可能領域内に位置するディスプレイ11を選択して、その選択されたディスプレイに画像を表示させる構成でもよい。   Further, as shown in FIG. 13B, a sheet-like display 11 is fixed and arranged so as to cover the outer peripheral surface of the first housing 10, and the various sensors among the plurality of display areas in the display 11 are arranged. The display area located in the user's viewable area estimated based on the input from may be selected, and an image may be displayed on the selected display area. In this case, the shape of the first housing 10 is not limited to a spherical shape, and may be any shape such as a cube or a rectangular parallelepiped as shown in FIG. For example, as shown in FIGS. 14 (a) and 14 (b), when the shape of the first housing 10 is a plate, the display 11 is fixed and arranged on the front and back surfaces, A configuration may be adopted in which the display 11 located in the user's viewable area estimated based on the input from the various sensors is selected and an image is displayed on the selected display.

1…生体測定装置、2…携帯ゲーム機、3…スマートフォン、4…操作部、10…第1筐体、11…ディスプレイ、12…カメラ、13…生体センサ群、14…電極部、14a…印加電極、14b…基準電極、15…錘部、16…3軸スライド部、17…連結部、18…光学素子、20…第2筐体、20a…球面部、20b…平面部、21…心電センサ、22…脈波センサ、23…駆動機構、24…加速度センサ、25…ジャイロセンサ、26…アクチュエータ、28…ローラ部材、29…ストッパ部材、30…制御部、35…錘部、36…環状スライド部、37…角度ステージ、38…回転ステージ、39…温度センサ、43…把持部、44…連結部材、45…操作部、46…通信部、47…外部接続部。   DESCRIPTION OF SYMBOLS 1 ... Biometric apparatus, 2 ... Portable game machine, 3 ... Smartphone, 4 ... Operation part, 10 ... 1st housing | casing, 11 ... Display, 12 ... Camera, 13 ... Biosensor group, 14 ... Electrode part, 14a ... Application Electrode, 14b ... reference electrode, 15 ... weight part, 16 ... triaxial slide part, 17 ... connecting part, 18 ... optical element, 20 ... second housing, 20a ... spherical part, 20b ... flat part, 21 ... electrocardiogram Sensor, 22 ... Pulse wave sensor, 23 ... Drive mechanism, 24 ... Acceleration sensor, 25 ... Gyro sensor, 26 ... Actuator, 28 ... Roller member, 29 ... Stopper member, 30 ... Control part, 35 ... Weight part, 36 ... Ring Slide part 37 ... Angle stage 38 ... Rotation stage 39 ... Temperature sensor 43 ... Holding part 44 ... Connecting member 45 ... Operating part 46 ... Communication part 47 ... External connection part

Claims (9)

筐体に設けられてユーザの操作に基づく画像を表示する表示部と、
前記筐体における前記表示部の位置を予め設定された視認位置に変更させる駆動手段と、
前記筐体における前記ユーザの視認可能な視認可能領域を推定する視認領域推定手段と、
前記視認領域推定手段にて推定した視認可能領域に含まれる特定位置を前記視認位置として設定する視認位置設定手段と、
を備えることを特徴とする可搬型表示装置。
A display unit that is provided in the housing and displays an image based on a user operation;
Drive means for changing the position of the display unit in the housing to a preset viewing position;
A visual recognition area estimating means for estimating a visual recognition possible area of the user in the housing;
A viewing position setting unit that sets a specific position included in the viewable region estimated by the viewing region estimation unit as the viewing position;
A portable display device comprising:
前記視認領域推定手段は、前記ユーザの操作に従って前記視認可能領域を推定することを特徴とする請求項1に記載の可搬型表示装置。   The portable display device according to claim 1, wherein the visual recognition area estimation unit estimates the visual recognition area according to an operation of the user. 前記筐体の外側における所定方向に向かって画像を撮像する撮像手段と、
前記撮像手段による撮像画像の中から前記ユーザの顔の向きを認識する顔認識手段と、
を備え、
前記視認領域推定手段は、前記顔認識手段にて認識した顔の向きに基づいて前記視認可能領域を推定することを特徴とする請求項1または請求項2に記載の可搬型表示装置。
Imaging means for capturing an image in a predetermined direction outside the housing;
Face recognition means for recognizing the orientation of the user's face from the image taken by the imaging means;
With
The portable display device according to claim 1, wherein the visual recognition area estimation unit estimates the visual recognition area based on a face orientation recognized by the face recognition unit.
前記撮像手段は、前記表示部と一体に設けられていることを特徴とする請求項3に記載の可搬型表示装置。   The portable display device according to claim 3, wherein the imaging unit is provided integrally with the display unit. 前記筐体に設けられて前記ユーザに把持される一対の把持部と、
前記把持部および前記筐体のうち少なくとも一方の前記特定位置に対する変位を検出する変位検出手段と、
を備え、
前記視認位置設定手段は、前記変位検出手段にて検出した変位に基づいて前記視認位置を可変設定することを特徴とする請求項1ないし請求項4のいずれか1項に記載の可搬型表示装置。
A pair of grip portions provided in the housing and gripped by the user;
A displacement detecting means for detecting a displacement of at least one of the grip portion and the housing with respect to the specific position;
With
5. The portable display device according to claim 1, wherein the visual recognition position setting unit variably sets the visual recognition position based on a displacement detected by the displacement detection unit. .
前記把持部が設けられた前記筐体を第1筐体、前記表示部が設けられた前記筐体を第2筐体として、
前記第1筐体は、透明または半透明の素材からなり、前記第2筐体を覆うように配置されており、
前記駆動手段は、前記第1筐体に対して前記第2筐体の位置を移動させる移動機構を有し、該移動機構に対して、前記表示部の位置を前記視認位置に変更させるための駆動制御を行うことを特徴とする請求項5に記載の可搬型表示装置。
The casing provided with the grip portion is a first casing, and the casing provided with the display portion is a second casing.
The first casing is made of a transparent or translucent material, and is disposed so as to cover the second casing.
The driving means has a moving mechanism that moves the position of the second housing relative to the first housing, and causes the moving mechanism to change the position of the display unit to the visual recognition position. The portable display device according to claim 5, wherein drive control is performed.
前記第1筐体の外周面および内周面は、球状に形成されており、
前記第2筐体は、前記第1筐体の内周面に沿って移動する球面部を有していることを特徴とする請求項6に記載の可搬型表示装置。
The outer peripheral surface and the inner peripheral surface of the first housing are formed in a spherical shape,
The portable display device according to claim 6, wherein the second housing includes a spherical portion that moves along an inner peripheral surface of the first housing.
前記把持部に設けられて前記ユーザの脈波または心電を表す生体信号を検出する生体信号検出手段と、
前記生体信号検出手段による検出結果を前記表示部に表示させる生体表示制御手段と、
を備えることを特徴とする請求項5ないし請求項7のいずれか1項に記載の可搬型表示装置。
A biological signal detection means provided on the grasping portion for detecting a biological signal representing the pulse wave or electrocardiogram of the user;
Biological display control means for displaying the detection result by the biological signal detection means on the display unit;
The portable display device according to any one of claims 5 to 7, further comprising:
前記把持部に設けられて前記ユーザの心電を表す生体信号を検出する生体信号検出手段を備え、
前記把持部は、前記筐体において互いに対向する側面に設けられており、
前記視認領域推定手段は、前記生体信号検出手段による検出結果に基づいて、前記筐体における前記ユーザの左手および右手による把持位置をそれぞれ特定し、その特定した把持位置を基に前記視認可能領域を推定することを特徴とする請求項5ないし請求項8のいずれか1項に記載の可搬型表示装置。
Provided with a biological signal detection means for detecting a biological signal representing the electrocardiogram of the user provided in the grip portion;
The grip portion is provided on the side surfaces facing each other in the housing,
The visual recognition area estimation means identifies the grip position by the user's left hand and right hand in the housing based on the detection result by the biological signal detection means, and determines the visual recognition area based on the identified grip position. The portable display device according to claim 5, wherein the portable display device is estimated.
JP2012053327A 2012-03-09 2012-03-09 Portable display device Pending JP2013186410A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012053327A JP2013186410A (en) 2012-03-09 2012-03-09 Portable display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012053327A JP2013186410A (en) 2012-03-09 2012-03-09 Portable display device

Publications (1)

Publication Number Publication Date
JP2013186410A true JP2013186410A (en) 2013-09-19

Family

ID=49387855

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012053327A Pending JP2013186410A (en) 2012-03-09 2012-03-09 Portable display device

Country Status (1)

Country Link
JP (1) JP2013186410A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013215334A (en) * 2012-04-06 2013-10-24 Parama Tec:Kk Autonomic nerve activity level display device
JP2017003624A (en) * 2015-06-04 2017-01-05 シャープ株式会社 Display device
JP2017044918A (en) * 2015-08-27 2017-03-02 シャープ株式会社 Display device
KR101756251B1 (en) * 2015-11-30 2017-07-11 현대오트론 주식회사 Apparatus for informing images of head up display
JP2017181975A (en) * 2016-03-31 2017-10-05 シャープ株式会社 Display device
JPWO2016174784A1 (en) * 2015-04-28 2018-02-22 シャープ株式会社 Control device and display device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013215334A (en) * 2012-04-06 2013-10-24 Parama Tec:Kk Autonomic nerve activity level display device
JPWO2016174784A1 (en) * 2015-04-28 2018-02-22 シャープ株式会社 Control device and display device
JP2017003624A (en) * 2015-06-04 2017-01-05 シャープ株式会社 Display device
JP2017044918A (en) * 2015-08-27 2017-03-02 シャープ株式会社 Display device
KR101756251B1 (en) * 2015-11-30 2017-07-11 현대오트론 주식회사 Apparatus for informing images of head up display
JP2017181975A (en) * 2016-03-31 2017-10-05 シャープ株式会社 Display device

Similar Documents

Publication Publication Date Title
JP2013186410A (en) Portable display device
TWI578179B (en) Portable electronic device and method for controlling operation thereof based on user motion
CN106293453B (en) Rotary display
TWI645314B (en) System and method for detecting hand gesture
JP5424373B2 (en) Image processing apparatus, image processing program, image processing system, and image processing method
JP5713104B2 (en) Portable device
JP7027109B2 (en) Posture position estimation system, attitude position estimation method, and attitude position estimation device
WO2013054477A1 (en) Portable instrument
US20070149282A1 (en) Interactive gaming method and apparatus with emotion perception ability
WO2011135757A1 (en) Information storage medium, information input device, and control method of same
CN105125160B (en) Oral cavity endoscope detecting system and detecting method thereof
JP2003337963A5 (en)
US20120098852A1 (en) Image display device
JP6148714B2 (en) Portable electronic devices
JP2009011870A (en) Game controller and game system
JP7057389B2 (en) Information processing equipment, control methods, programs, and storage media
JP2014061057A (en) Information processor, information processing method, program, and measurement system
TW201132388A (en) Game glove
JP2017525411A (en) Intraoral imaging using an operator interface with gesture recognition
TW200722159A (en) Electric device with motion detection ability
WO2019033322A1 (en) Handheld controller, and tracking and positioning method and system
CN110520822B (en) Control device, information processing system, control method, and program
JP6719418B2 (en) Electronics
JP2011095228A (en) Operation input device
JP6661783B2 (en) Information processing system, information processing apparatus, control method, and program