JP6884233B2 - 自筆支援装置、自筆支援方法およびプログラム - Google Patents

自筆支援装置、自筆支援方法およびプログラム Download PDF

Info

Publication number
JP6884233B2
JP6884233B2 JP2019567870A JP2019567870A JP6884233B2 JP 6884233 B2 JP6884233 B2 JP 6884233B2 JP 2019567870 A JP2019567870 A JP 2019567870A JP 2019567870 A JP2019567870 A JP 2019567870A JP 6884233 B2 JP6884233 B2 JP 6884233B2
Authority
JP
Japan
Prior art keywords
image
writing
hand
image display
real object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019567870A
Other languages
English (en)
Other versions
JPWO2019146221A1 (ja
Inventor
貴洋 佐野
貴洋 佐野
納谷 昌之
昌之 納谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2019146221A1 publication Critical patent/JPWO2019146221A1/ja
Application granted granted Critical
Publication of JP6884233B2 publication Critical patent/JP6884233B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/14Beam splitting or combining systems operating by reflection only
    • G02B27/144Beam splitting or combining systems operating by reflection only using partially transparent surfaces without spectral selectivity
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B43WRITING OR DRAWING IMPLEMENTS; BUREAU ACCESSORIES
    • B43LARTICLES FOR WRITING OR DRAWING UPON; WRITING OR DRAWING AIDS; ACCESSORIES FOR WRITING OR DRAWING
    • B43L13/00Drawing instruments, or writing or drawing appliances or accessories not otherwise provided for
    • B43L13/10Pantographic instruments for copying, enlarging, or diminishing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B43WRITING OR DRAWING IMPLEMENTS; BUREAU ACCESSORIES
    • B43LARTICLES FOR WRITING OR DRAWING UPON; WRITING OR DRAWING AIDS; ACCESSORIES FOR WRITING OR DRAWING
    • B43L13/00Drawing instruments, or writing or drawing appliances or accessories not otherwise provided for
    • B43L13/14Devices for drawing in perspective
    • B43L13/16Devices for drawing in perspective free-hand
    • B43L13/18Devices for drawing in perspective free-hand having optical or projecting equipment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/02Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes by tracing or scanning a light beam on a screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Description

本開示は、手書きで文字を書く際の列やバランスの崩れを防ぐためのガイドを行う自筆支援装置、自筆支援方法およびプログラムに関する。
現在、現実空間に仮想現実物体などの視覚的な情報を付加して、人が観察する現実世界を拡張する拡張現実(AR:Augmented Reality)技術が知られている。特開2016−194744号公報(以下において、特許文献1という。)には、仮想的な物体(以下において「AR物体」という。)に対する現実物体の奥行き方向の位置関係を表示制御する方法が開示されている。手がAR物体よりも手前にある場合、手の影をAR物体の表面に描画させることにより、AR物体が自分の手よりどのくらい離れているかを使用者が認識しやすくする画像表示方法が開示されている。
また、特開2008−027223号公報(以下において、特許文献2という。)は、映像に対応する触覚を映像空間に位置する対象物をなぞることにより知覚させる、AR物体の存在を現実に近いものとする技術が提案されている。特許文献2には、映像提示手段として、シースルー型ヘッドマウントディスプレイ、ディスプレイとハーフミラーとよりなるシースルー型ディスプレイ、ディスプレイからの映像を投射するプロジェクタ等が挙げられている。映像提示手段が対象物を触る使用者の指より眼に近い位置関係にある場合、指の上に映像が乗り、AR物体が指よりも手前に知覚されてしまうという問題点があるが、映像提示手段を指より眼から遠い位置関係にすることにより、指の上に映像が表示されるという不具合を解消できることが開示されている。
一方、手書きする必要がある書類等に対し、文字を書き込む際に、列やバランスが崩れてしまうのを防ぐための手書き支援システムが国際公開第2016/121362号(以下において、特許文献3という。)において提案されている。特許文献3の装置は、AR技術を利用したものであり、画像表示面において表示される手本となる像の鏡像画像をハーフミラーで反射させ、使用者にその反射像(虚像)を筆記面に一致して視認させるように構成されている。
しかしながら、特許文献3の自筆支援装置において、使用者の筆記時の手の下にあるべき虚像が、手の上に重なって表示されてしまうために、奥行き知覚に問題が発生し、筆記時に強い違和感を覚える場合がある。人間の奥行き知覚は、両眼性と単眼性との2つの視覚情報に基づいて得られる。ハーフミラーを用いた虚像(AR物体)が筆記面に投影される構成においては、「両眼視差」からは、AR物体が、手よりも奥に存在すると判断される。一方、現実には、AR物体が現実の現実物体である手と重なり、手を透けて視認されてしまうことから、「単眼性の遮蔽効果」によりAR物体が手の手前に存在するように判断されてしまう。使用者はこの両眼性と単眼性からの視覚情報を同時に取得することになるため、この情報のずれによって、使用者には強い違和感が生じる。
本開示は、上記事情に鑑みてなされたものであって、使用時に使用者が感じる違和感を低減して自筆支援機能を向上させることができる自筆支援装置、自筆支援方法およびプログラムを提供することを目的とする。
本開示の自筆支援装置は、画像表示面に表示された画像の虚像を、画像表示面と対向する筆記面で目視可能に、画像表示面からの光を反射し、かつ筆記面側が目視可能に、筆記面側からの光を透過する、筆記面との間に空間を隔てて配置されたビームスプリッタと、
画像表示面に、筆記対象領域を示す複数の画像オブジェクトを含む第1の画像を表示し、ビームスプリッタと筆記面との間の空間に筆記具を含む現実物体が挿入された場合に、複数の画像オブジェクトのうち、筆記面上で現実物体と重なり、かつ筆記具の先端とは重ならない画像オブジェクトを非表示にする制御を行う画像表示制御部とを備える。
本開示の自筆支援装置においては、筆記面上における現実物体の画像データを取得する物体位置センサを備え、画像表示制御部が、物体位置センサにより取得された画像データから求められた現実物体の筆記面における座標情報と、予め備えられている各画像オブジェクトの座標情報とに基づいて、非表示にする画像オブジェクトを特定するものであってもよい。
本開示の自筆支援装置においては、現実物体が、筆記具と筆記具を保持する使用者の手である場合において、画像表示制御部が、現実物体の筆記面における座標情報から特定された使用者の手の左右および筆記具の先端位置を示す情報と、各画像オブジェクトの座標情報とに基づいて、非表示にする画像オブジェクトを特定するものであってもよい。
本開示の自筆支援装置においては、使用者からの利き手情報を受け付ける利き手情報受付部を備え、現実物体が、筆記具と筆記具を保持する使用者の手である場合において、画像表示制御部が、利き手情報および現実物体の筆記面における座標情報に基づいて特定された筆記具の先端位置を示す情報と、各画像オブジェクトの座標情報とに基づいて、非表示にする画像オブジェクトを特定するものであってもよい。
本開示の自筆支援装置においては、画像表示制御部が、現実物体の筆記面における座標情報として、筆記面における現実物体の投影領域の上端、下端、左端および/または右端の位置座標を取得し、使用者の手が右手である場合には、筆記面における現実物体の投影領域の上端より下に下端を有する画像オブジェクトであって、左端が筆記具の先端位置より右側にある画像オブジェクトを非表示にする画像オブジェクトとして特定し、使用者の手が左手である場合には、筆記面における現実物体の投影領域の上端より下に下端を有する画像オブジェクトであって、右端が先端位置より左側にある画像オブジェクトを非表示にする画像オブジェクトとして特定するものあってもよい。
ここで、上下、左右は、使用者から筆記面を見た筆記面の上下、左右で規定する。
本開示の自筆支援装置においては、画像表示制御部が、使用者の手が右手である場合には、現実物体の投影領域の左端を筆記具の先端位置として設定し、使用者の手が左手である場合には、現実物体の投影領域の右端を筆記具の先端位置として設定するものであってもよい。
本開示の自筆支援装置においては、画像表示制御部が、第1の画像とは異なる第2の画像を、第1の画像に重ねて画像表示面に表示するものであってもよい。
本開示の自筆支援装置においては、画像表示制御部が、第1の画像の非表示にする画像オブジェクトの表示領域に、筆記具の先端が重なる画像オブジェクトに関する情報を第2の画像として表示するものであってもよい。
本開示の自筆支援方法は、筆記面において虚像として視認される、筆記対象領域を示す複数の画像オブジェクトを含む第1の画像を画像表示面に表示させ、
筆記面と画像表示面との間の空間に筆記具を含む現実物体が挿入された場合に、複数の画像オブジェクトのうち、筆記面において現実物体と重なり、かつ、筆記具の先端とは重ならない画像オブジェクトを非表示にする。
本開示のプログラムは、本開示の自筆支援方法をコンピュータに実現させるプログラムである。
本開示の自筆支援装置によれば、画像表示制御部が、画像表示面に、筆記対象領域を示す複数の画像オブジェクトを含む第1の画像を表示し、ビームスプリッタと筆記面との間の空間に筆記具を含む現実物体が挿入された場合に、複数の画像オブジェクトのうち、筆記面で現実物体と重なり、かつ筆記具の先端とは重ならない画像オブジェクトを非表示にする制御を行う。係る構成によれば、使用者の筆記具を持つ手に重なって虚像が表示されるのを抑制することができるため、虚像と手の位置との位置情報に関して使用者が感じる違和感を低減することができる。したがって、自筆支援機能を向上させることができる。
本発明の実施形態に係る自筆支援装置の概略構成を示す斜視図である。 図1に示す自筆支援装置の概略構成を示す側面図である。 画像表示面および筆記面に表示される画像を示す模式図である。 画像表示制御部を実現するタブレット型コンピュータを示す斜視図である。 本実施形態の自筆支援装置を構成する画像表示制御部およびその他の構成要素の関係を模式的に示すブロック図である。 本実施形態の自筆支援装置において表示される画像および使用者により視認される状態を説明するための図である。 非表示処理画像を説明するための図である。 非表示する画像オブジェクトの特定方法を説明するための表示領域、画像オブジェクトの位置座標の定義を示す図である。 非表示画像オブジェクトの特定方法を説明するための現実物体の筆記面にける投影領域の上下端および左右端の情報を示す図である。 筆記具を保持する手の左右を特定するフローを示す図である。 画像オブジェクトの表示、非表示を判断するフローを示す図である。 演算ブロックダイアグラムの設計変更例を示す図である。 第1の画像に第2の画像を重ねて表示した場合の画像表示方法を説明するための図である。 第2の画像を手に重ねて表示した場合の、使用者からみた筆記面の状態を示す図である。 比較例2の表示方法における、使用者からみた筆記面の状態を説明する図である。
以下、本発明の実施の形態について図面を参照して説明する。
図1は、本発明の実施形態の自筆支援装置の概略構成を斜視図であり、図2は、本実施形態の自筆支援装置1における筆記面、ビームスプリッタの一形態であるハーフミラーのミラー面および画像表示面の位置関係を示す側面図である。
図1、図2に示すように、本実施形態の自筆支援装置1は、画像表示面32に表示された画像の虚像を、画像表示面32と対向する筆記面12で目視可能に、画像表示面32からの光を反射し、かつ筆記面12側が目視可能に、筆記面12側からの光を透過する、筆記面12との間に空間を隔てて配置されたハーフミラー20と、画像表示面32に、筆記対象領域を示す複数の画像オブジェクトを含む第1の画像を表示し、ハーフミラー20と筆記面12との間の空間に筆記具74を含む現実物体70が挿入された場合に、複数の画像オブジェクトのうち、筆記面12上で現実物体70と重なり、かつ筆記具74の先端とは重ならない画像オブジェクトを非表示にする制御を行う画像表示制御部35とを備えている。
本実施形態の自筆支援装置1は、筆記媒体10が載置される支持台5とその支持台5上にハーフミラー20および画像提示体30の支持部材40を位置させるための支持軸6を備えている。ハーフミラー20と支持部材40は支持軸6に沿って上下に移動できるように構成されていることが好ましい。画像表示面32を有する画像提示体30は、画像表示面32がハーフミラー20のミラー面22と向かい合うように、支持部材40に支持されている。支持部材40は、画像提示体30を載置するための支持板41を備えている。支持板41は画像提示体30の画像表示面32に表示される画像をミラー面22に映すことができる透明度を有する。
自筆支援装置1においては、画像表示面32と対向して位置する筆記面12との間にハーフミラー20が配置されている。本構成により、自筆支援装置1においては画像表示面32に表示された画像の虚像が、視認可能に筆記面12に表示される。筆記面12は、画像表示面32に対向する面であって、画像表示面32に表示される画像の虚像が視認される面である。なお、以下において、自筆支援装置1を使用する際に、虚像が視認される面に載置される、使用者が文字、絵などを筆記する用紙等の筆記媒体10の表面を筆記面12と見做して説明する。
本実施形態においては、筆記面12とミラー面22との光学距離が、ミラー面22と画像表示面32との間の光学距離と等しくなるように、ハーフミラー20、画像表示面32および筆記面12の位置は調整されている。但し、ハーフミラー20において反射させた虚像が、筆記面12に所望の大きさで視認可能とされる構成であれば本構成に限らない。画像表示面32は、例えば、ディスプレイあるいはディスプレイを備えたタブレット型コンピュータおよびスマートフォンなどの画像提示体30のパネル面から構成される。
図3の左図が画像提示体30の画像表示面32に表示される第1の画像100Aであり、右図が筆記面12に目視される、第1の画像100Aの反射像(虚像)100Bである。図3に示すように、画像表示面32には、筆記面12に表示すべき像100Bの鏡像(左右反転像)となる第1の画像100Aが表示される。ここで例示されている像100Bは、はがきの表書きの住所、宛先等を記載すべき領域のレイアウト画像である。
図2に示すように、使用者がハーフミラー20のミラー面22側の観察部60から筆記面12を見たときに、画像表示面32に表示された第1の画像100Aがミラー面22で反射されて視認される反射像(虚像)100Bが筆記面12に一致して見えるのである。すなわち、本明細書において「筆記面に虚像が表示される」とは、筆記面12に像が直接投影されているかのように見える状態を意味する。しかし、実際には、使用者は、ミラー面22で反射された鏡像画像の虚像を見ているのであり、プロジェクタによる画像表示のように像が直接投影表示されているわけではない。
ハーフミラー20は画像表示面32と対向するミラー面22を備えている。ハーフミラー20は、画像表示面32からの光を反射し、筆記面側からの光を透過するものであればよく、ミラー面22に入射する光の一部を反射し、一部を透過させるものであればその機能を奏する。図2に示すように、観察部60から筆記面12を視認することができ、また、その筆記面12に、ハーフミラー20により反射された画像表示面32に表示される鏡像画像の鏡像(そもそも表示すべき像)を重ねて視認できる反射率および透過率を有するものであればよい。すなわち、本明細書においてハーフミラー20は、画像表示面からの光を反射して、筆記面に虚像が一致して視認されるものであればよく、透過率と反射率が1:1であるものに限られない。
本実施形態において、ハーフミラー20のミラー面22は、画像提示体30側の面にあり、筆記面12、ミラー面22および画像表示面32は互いに平行に、画像表示面32とミラー面22との光学距離hと、ミラー面22と筆記面12との光学距離hとが等しくなるように位置される。すなわち、ミラー面22の任意の点Oから、この任意の点Oを通ってミラー面22と垂直に交わる垂線の画像表示面32との交点Aまでの光学距離hと、同一垂線の筆記面12との交点Bまでの光学距離hとが等しい。
本構成において、画像表示面32とミラー面22との光学距離hは、支持板41の厚みdと屈折率nとの積n1・と、支持板41の下面44とミラー面22との距離Lとの和すなわち、h=n・d+Lで表される。また、ミラー面22と筆記面12との光学距離hは、ハーフミラー20の厚みdと屈折率nとの積n・dと、ハーフミラー20の下面24と筆記面12との距離Lとの和、すなわち、h=n・d+Lで表される。
このように、本実施形態の自筆支援装置1においては、光学距離hとhが等しくなるようにハーフミラー20の位置および画像提示体30の位置が調整されていることにより、画像表示面32に表示される画像の虚像を、筆記面12に目視可能に表示させることができる。
画像表示制御部35は画像表示面32への画像表示を制御する機能を担う。画像表示制御部35は、筆記面12において虚像として視認される、筆記対象領域を示す複数の画像オブジェクトObn(n=1,2,…)を含む第1の画像100Aを画像表示面32に表示させ、筆記面12と画像表示面32との間の空間に筆記具74を含む現実物体70が挿入された場合に、複数の画像オブジェクトのうち、筆記面12上で現実物体70と重なり、かつ、筆記具74の先端とは重ならない画像オブジェクトを非表示にする自筆支援方法を実行する。
ここで、筆記面12とハーフミラー20との間の空間に挿入される筆記具74を含む現実物体70としては、主として、筆記具74と筆記具74を保持する使用者の手76が想定される。
画像表示制御部35は、中央処理装置(CPU:Central Processing Unit)、主記憶装置、補助記憶装置、入出力インターフェースおよび通信インターフェースなどの周知のハードウェア構成を備えたコンピュータに実装されている。コンピュータには上述の自筆支援方法を実現するための自筆支援プログラムがインストールされており、このプログラムを実行することにより、画像表示制御部35として機能する。
なお、自筆支援プログラムは、DVD(Digital Versatile Disc)あるいはCD−ROM(Compact Disc Read Only Memory)等の記録媒体に記録されて配布され、その記録媒体からコンピュータにインストールされる。またはネットワークに接続されたサーバコンピュータの記憶装置、もしくはネットワークストレージに外部からアクセス可能な状態で記憶され、自筆支援装置を設置する設置者、あるいは、自筆支援装置の使用者の要求に応じてコンピュータにダウンロードされ、インストールされる。自筆支援プログラムは、コンピュータを自筆支援装置のための画像表示制御部として機能させるためのアプリケーションソフトウェアとして提供されうる。
本実施形態においては、画像表示面32を備えた画像提示体30として、例えば、図4に示すようなタブレット型コンピュータを適用することができる。タブレット型コンピュータは、画像表示面32を構成するディスプレイと、そのディスプレイと同一面側に備えられている、物体位置センサ36として機能するインカメラ(以下においてインカメラ36ともいう。)とを備えている。
図5は、本実施形態の自筆支援装置1を構成する画像表示制御部35およびその他の構成要素の関係を模式的に示すブロック図である。画像表示制御部35は、筆記面12に表示すべき画像の鏡像画像の画像データを保持する画像データ保持部37と、非表示とする画像オブジェクトを特定する演算処理を行う演算部38とを備えている。
物体位置センサ36は、タブレット型コンピュータに備えられているインカメラに限らず、支持部材40の一部等に備えられた、カメラ、赤外線センサおよび超音波センサなどであってもよい。
画像データ保持部37は、第1の画像の画像データを記憶する記憶部である。画像データ保持部37には、第1の画像として、ハガキ用のレイアウト画像の他、各種のレイアウト画像等の画像データが保持されており、筆記媒体に応じて適切な画像データが演算部38に読み出される構成とすることができる。また、画像データ保持部37には、第1の画像に含まれる複数の筆記対象画像オブジェクトの座標情報が保持されている。
使用者は画像表示面32に表示された画像と筆記面12とをハーフミラー20を介して視認する。現実物体70は使用者の手76と筆記具74であり、使用者により移動される。物体位置センサ36は現実物体70がハーフミラー20と筆記面12との間に挿入された場合、それを検出し、筆記面12上における現実物体70の画像データを取得する。また、物体位置センサ36では手76の動きを検出し、常にもしくは一定時間毎など予め設定されたタイミングで現実物体の画像データを取得するように設定してもよい。
画像表示制御部35の演算部38において、物体位置センサ36により取得された画像データから求められた現実物体70の筆記面12における座標情報と、画像データ保持部37に予め備えられている各画像オブジェクトの座標情報とに基づいて、非表示にする画像オブジェクトを特定し、画像表示制御部35は、その画像オブジェクトを非表示とした画像の鏡像画像を画像表示面32に表示する。
このとき、画像表示制御部35の演算部38は、物体位置センサ36により取得された画像データから、現実物体70の筆記面12における座標情報を求める演算を行う。なお、物体位置センサ36がさらに演算部を備えている場合には、物体位置センサ36側で現実物体の座標情報を求め、その座標情報を画像表示制御部35に送信するように構成してもよい。
現実物体の座標情報としては、例えば、現実物体の筆記面における投影領域の上端、下端、左端および右端の位置座標が挙げられる。投影領域の上下左右端の位置座標をすべて取得してもよいが、非表示する画像オブジェクトを特定するために最低限必要な座標情報を求めればよい。
ここで、筆記面に表示される画像について図6および図7を参照して説明する。以下において、筆記面12は、はがき10の表面であり、筆記面12に表示すべき画像は、はがき用のレイアウト画像100とする。レイアウト画像100は、住所、宛名等の記入領域のそれぞれが筆記対象領域を示す画像オブジェクトOb〜Obを含む。既述の通り、画像表示面32には、筆記面12に視認されるレイアウト画像100の鏡像画像が表示されるが、視覚的に理解しやすいように、図6以降の図面においては、筆記面に視認されるレイアウト画像100を示して説明する。
図6のAに示すように、はがき10の筆記面12にレイアウト画像100を表示する際、筆記面12とハーフミラーとの間の空間に筆記具74を含む現実物体70が挿入される場合について説明する。この場合、使用者が、筆記面12を目視した場合、画像オブジェクトOb、ObおよびObのそれぞれの一部が手76および筆記具74と重なって見える。図6のBのように、筆記面12と一致して見えるべき画像オブジェクトOb〜Obが手や筆記具の表面に目視されると、筆記面と画像との奥行き感に使用者は強い違和感を覚える。そのため、画像表示制御部35は、図6のCに示すように、手76および筆記具74と重なって表示される画像オブジェクトOb、ObおよびObのうち、筆記具の先端74Pと重なっている画像オブジェクトOb以外の画像オブジェクトOb、Obを非表示とする制御を行う。
図7のAに示す元のレイアウト画像100から、現実物体70と重なり、かつ筆記具74の先端74Pと重ならない画像オブジェクトOb、Obを非表示とした非表示処理画像101を作成する。そして、この非表示処理画像101を筆記面12に表示させると図7のC(図6のC)に示す視野像112が得られる。
図7のCのように画像オブジェクトOb、Obが非表示とされると、手と重なって目視される画像オブジェクトの領域が減るため、使用者の違和感を低減し、自然な使用感を使用者に与えることができる。
画像表示制御部35において、非表示にする画像オブジェクトを特定する方法の一例を説明する。
図8は筆記面12の筆記領域12Aの座標規定を説明するための図である。図8に示すように、筆記面12をxy平面で表す。xy平面は、使用者が使用時に筆記面を目視した場合における左右にx軸、上下にy軸をとり、左右の右向をx軸の正、上下の上向きをy軸の正とする。そして、筆記領域12Aの上端のy座標をYMAX、下端のy座標をYMIN、左端のx座標をXMINおよび右端のx座標をXMAXとする。
画像表示制御部35の画像データ保持部38には、筆記面12に表示される第1の画像100に含まれる各画像オブジェクトOb(n=1、2、…8)の座標情報として、図8に示すxy平面における各画像オブジェクトObの上下端および左右端の位置座標(上端のy座標YnT、下端のy座標YnB、左端のx座標XnL、右端のx座標XnR)が予め保持されている。
図9は、現実物体70の筆記面12における投影領域の上下端および左右端の座標を説明するための図である。ここで、投影領域とは、現実物体70を筆記面12に垂直投影した領域である。画像データから投影領域が得られ、投影領域の上端、下端、左端および右端の座標情報を取得するが、この際の上端のy座標をY、下端のy座標をY、左端のx座標をX、右端のx座標をXとする。なお、図9に示すように投影領域の下端Yが筆記領域12Aの下端YMINと一致しており、筆記領域12Aの下端YMINに対して投影領域がX方向に幅をもって重なっている場合には、下端Yの左端のx座標をXB1、下端Yの右端のx座標をXB2とする。
図8および図9に規定した座標系に基づいて、各画像オブジェクト毎に表示、非表示を判定する。この際、手の左右および筆記具の先端位置を示す情報を特定した後に、それらの情報と、各画像オブジェクトの座標情報とに基づいて、各画像オブジェクトの表示、非表示を特定する。
図10は、手の左右、すなわち、筆記具を保持する手が左手であるか右手であるかを特定し、かつ、筆記具の先端位置を特定するフローを示す図である。
まず、現実物体の投影領域の下端Yが筆記領域12Aの下端YMINと一致しているか否かを判定する(ST1)。
=YMINである場合(ST1:YES)、現実物体の投影領域の左端Xが現実物体の投影領域の下端Yの左端XB1よりも小さいか否かを判断する(ST2)。ここで、X<XB1である場合(ST2:YES)、筆記具を保持する手が右手であると判断し、このとき左端の位置を筆記具の先端位置(X,Y)として設定する(ST4)。他方、X<XB1でない場合(ST2:NO)、左手であると判断し、このとき左端の位置を筆記具の先端位置(X,Y)として設定する(ST5)。
=YMINでない場合(ST1:NO)、現実物体の投影領域の右端Xが投影領域の右端XMAXであるか否かを判断する(ST3)。ここで、X=XMAXである場合(ST3:YES)、筆記具を保持する手が右手であると判断し、このとき左端の位置を筆記具の先端位置(X,Y)として設定する(ST4)。X=XMAXでない場合(ST3:NO)、左手であると判断し、このとき左端の位置を筆記具の先端位置(X,Y)として設定する(ST5)。
以上のフローにしたがって、手76の左右、および筆記具74の先端74Pの位置座標(X、Y)を特定する。以下においては、この筆記具を握っている手を利き手と称している。
なお、現実物体の画像データから筆記具の先端位置を特定する方法としては、上記の方法に限られず、投影領域から、先端先細りの領域、あるいは線状の領域を検出して先端位置として特定する方法などであってもよい。さらに、投影領域から筆記具の先端を特定して、その左右どちらに投影領域が広がっているかによって手の左右を特定することもできる。
図11は、各画像オブジェクトについて、非表示とするか表示とするかを決定するフローを示す図である。
まず、画像オブジェクトObの下端YnBが現実物体の投影領域の上端より下であるか否かを判断する(ST11)。
nB<Yであり(ST11:YES)、利き手が右手である場合(ST12:右)、画像オブジェクトの左端XnLが現実物体の左端X(=筆記具の先端位置)よりも右にあるか否かを判断する(ST13)。ここで、XnL>Xである場合(ST13:YES)、非表示と決定する(ST15)。他方、XnL>Xでない場合(ST13:NO)、表示と決定する(ST16)。
nB<Yであり(ST11:YES)、利き手が左手である場合(ST12:左)、画像オブジェクトの右端XnRが現実物体の右端X(=筆記具の先端位置)よりも左にあるか否かを判断する(ST14)。ここで、XnR<Xである場合(ST14:YES)、非表示と決定する(ST15)。他方、XnR<Xでない場合(ST13:NO)、表示と決定する(ST15)。
一方、YnB<Yでない場合(ST11:NO)、表示と決定する(ST16)。
各画像オブジェクトに関して上記のフローに沿って表示、非表示を決定して、非表示とする画像オブジェクトを特定する。
画像表示制御部35は、例えば、以上のようにして、現実物体70の投影領域と筆記面12で重なりを有するが、筆記具74の先端74Pとは重ならない画像オブジェクトを非表示とした非表示処理画像101を作成して、その鏡像画像を画像表示面32に表示する。
なお、上記においては、画像表示制御部35において、筆記具を保持する手の左右を特定したが、使用者の利き手の情報をあらかじめ使用者が指定するようにしてもよい。図12は、自筆支援装置1を構成する画像表示制御部35およびその他の構成要素についての設計変更例のブロック図である。利き手情報受付部39を備えている点でのみ図5に示した構成と異なる。利き手情報受付部39は、例えば、タブレット型コンピュータのタッチパネルにより実現することができる。
使用者が利き手情報を入力するので、画像表示制御部35において、筆記具74を持つ手76の左右を特定するフローを実施する必要がないため、より速い処理が可能となる。
画像表示制御部35は、さらに、第1の画像とは異なる第2の画像を、第1の画像と重ねて画像表示面32に表示させるように構成されていてもよい。第2の画像は、例えば、記入領域に記載すべき内容について示すガイド画像である。
第2の画像として「宛名」などの記入すべき情報に関するガイド画像122を表示させる方法について図13を参照して説明する。
図13のAに示すレイアウト画像100において、上記実施形態と同様にして図13のBに示す非表示処理画像101を作成する。この非表示処理画像101の作成時に特定された筆記具74の先端74Pの位置情報から、使用者が記入しようとしている領域の画像オブジェクトを特定する。具体的には、筆記具74の先端74Pが重なっている画像オブジェクトObを、記入対象の画像オブジェクトとして特定する。そして、この画像オブジェクトObに関する情報、例えば、記入すべき事項を示すガイド画像122を第2の画像として選択する。非表示処理画像101の上層のレイヤーにガイド画像122を重ねたオーバーレイ画像102を作成する。
そして、図13のCに示すように、筆記面12上に、筆記具74を持つ手76が挿入されると、図13のDに示す視野像113のように、使用者には、ガイド画像122が手76に一部重なるように目視される。この場合も、使用者は筆記面12と一致して表示される各画像オブジェクトOb、Ob〜Obの上に手76が位置しているように認識できる。さらに、ガイド画像122により、記入すべき内容がすぐにわかるため、作業を効率よく進めることができる。なお、ガイド画像122は、非表示画像オブジェクトの領域とは異なる領域に表示されていてもよい。しかし、ガイド画像122が手と重なり、手の手前に存在するように認識されることによりレイアウト画像を含む非表示処理画像101が手の奥に存在するように使用者に感じさせることができ、違和感を低減する効果がより高まるため好ましい。
なお、「宛名」を示すガイド画像122のように表示領域が小さく、非表示処理画像101中の画像オブジェクトが存在しない領域に表示可能な場合には、レイアウト画像100にガイド画像122を合成した合成画像を作成し、合成画像を画像表示面32に表示するようにしてもよい。
さらに、図14に示すように、ガイド画像122の全域が手の表面に表示するようにしてもよい。レイアウト画像にガイド画像122が重ならないため、現実物体70の奥にレイアウト画像が位置し、ガイド画像122が現実物体70の手前に位置するように知覚しやすくなり、奥行き知覚の違和感をさらに解消することができる。
なお、はがき表書き用のガイド画像122としては、「宛名」の他、例えば、「住所」「郵便番号」などが挙げられる。これらの画像データも画像データ保持部37に記憶されており、演算部38は、筆記面の筆記具の先端の位置に応じて適切なガイド画像を読み出し、表示させることができる。
上記の実施形態で説明したように、複数の画像オブジェクトを含む筆記面に表示される画像において、現実物体の位置に応じて画像オブジェクトの表示、非表示を制御するので、複雑な画像処理等を行う必要がなく、非表示処理画像の処理速度を非常に早くすることができ、現実物体が移動した場合にも、違和感なく使用することができる。
上記実施形態においては、画像提示体30がタブレット型コンピュータから構成され、画像表示制御部35を内包する構成として説明したが、画像提示体30はコンピュータを含まない単なるディスプレイから構成されていてもよい。その場合、画像提示体30が、画像表示制御部が実装された別体のコンピュータと、無線もしくは有線で接続される構成としてもよい。
第1の画像としては、例えば、上述したはがきの宛名面(表面)の他、手紙やはがきの文面(裏面)のレイアウトやマス目、達筆のナビゲート、お絵かきのフレーム、および役所や銀行などにおける記入書類のレイアウトなどが挙げられる。
なお、本発明の自筆支援装置は、書面作成の支援の他、手術支援、手術教育、組立作業支援、実験作業支援などにも適用可能である。
以下、実施例および比較例について説明する。
実施例および比較例では、図1に示す装置において、物体位置センサはカメラとし、物体位置センサから筆記面までの距離を約300mmとした。筆記面にはがきの宛名書き面が位置されており、第1の画像として住所、宛名などの記入位置を示すレイアウト画像を用いた。現実物体である使用者の手(の甲)の高さは約50mmとした。カメラで取得したRGB情報(画像データ)から手の存在位置を決定した。各実施例および比較例は自筆支援装置内の画像表示制御部の作用が異なる。
[実施例1]
上記実施形態において、図6および図7を参照して説明した方法に沿って、レイアウト画像中の、現実物体である手および筆記具の投影領域に重なり、かつ筆記具の先端と重ならない画像オブジェクトを非表示とした非表示処理画像101を筆記面に表示させた(図7参照)。これにより、使用者には図7のCに示す視野像112が視認されるようにした。
[実施例2]
上記実施形態において、図13を参照して説明した方法にしたがって、実施例1の非表示処理画像101に、筆記面における手の位置に応じて、筆記すべき内容を表示するガイド画像を重ねて表示させた。これにより、使用者には図13のDに示すガイド画像122が手に一部重なる視野像113が視認されるようにした。
[比較例1]
筆記面上に現実物体70が挿入されても、レイアウト画像100を非表示処理することなくそのまま表示させた。すなわち、図6のBに示す視野像111のように、レイアウト画像100が手に重なって目視されるようにした。
[比較例2]
図15に示すように、レイアウト画像と重なる現実物体70の投影領域に対応する領域の輪郭を抽出し、この輪郭よりも広い領域155を非表示処理した非表示処理画像152を作成し、画像表示面に表示させた。これにより、図15に示すように、現実物体の投影領域よりも広い領域が非表示とされた像を筆記面に表示させた。この場合、使用者による視野像114において、非表示処理画像152が使用者の手76の奥に視認され、手76の周りに非表示処理により画像が表示されていない領域が手76より広い範囲に広がっており、手76の影が表示されているように観察された。
以上の実施例1、2および比較例1、2の表示方法において、使用者によるユーザビリティを比較した。20人に、ランダムな順に各例の表示方法による表示をおこなった状態で、はがき表面に宛名を筆記させる試験を行い、以下の評価を行った。
<宛名記入するのにかかった時間>
筆記開始から終了までの時間(秒)を測定した。
<宛名の中心からのずれ量>
宛名字重心のレイアウト中心から横方向にずれた量の和(mm)を求めた。
<宛名を記入する体験の自然さ>
不自然1から自然5の5段階で被験者にアンケートを取った。官能評価である。
各例についての評価結果の平均値を表1に示す。
Figure 0006884233

表1に示すように、比較例1、2に比べて実施例1、2は記入時間が短かった。また、比較例1と比べて、実施例1、2は、奥行の違和感が少ないという評価結果が得られた。比較例2では、奥行の違和感は少ないが、中心からのずれ量が実施例と比較して大きかった。これは、レイアウトの一部情報の欠落による影響と考えられる。なお、実施例1、2の方法は、比較例2のように、現実物体の投影領域の輪郭を抽出し、それより広い領域を非表示処理して非表示処理画像を表示する処理と比較して演算負荷が小さいため、手の動きにより追従した非表示処理画像を表示させることができた。そのために、実施例1、2に関して体験の自然さの評価において比較例2よりも高い評価結果が得られたと考えられる。
2018年1月23日に出願された日本国特許出願特願2018−008813の開示はその全体が参照により本明細書に取り込まれる。
本明細書に記載された全ての文献、特許出願および技術規格は、個々の文献、特許出願、および技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。

Claims (10)

  1. 画像表示面に表示された画像の虚像を、前記画像表示面と対向する筆記面で目視可能に、前記画像表示面からの光を反射し、かつ前記筆記面側が目視可能に、前記筆記面側からの光を透過する、前記筆記面との間に空間を隔てて配置されたビームスプリッタと、
    前記画像表示面に、筆記対象領域を示す複数の画像オブジェクトを含む第1の画像を表示し、前記ビームスプリッタと前記筆記面との間の空間に筆記具を含む現実物体が挿入された場合に、前記複数の画像オブジェクトのうち、前記筆記面上で前記現実物体と重なり、かつ前記筆記具の先端とは重ならない画像オブジェクトを非表示にする制御を行う画像表示制御部と、
    を備えた自筆支援装置。
  2. 前記筆記面上における前記現実物体の画像データを取得とする物体位置センサを備え、
    前記画像表示制御部が、前記物体位置センサにより取得された前記画像データから求められた前記現実物体の前記筆記面における座標情報と、予め備えられている各画像オブジェクトの座標情報とに基づいて、前記非表示にする画像オブジェクトを特定する請求項1に記載の自筆支援装置。
  3. 前記現実物体が、前記筆記具と該筆記具を保持する使用者の手である場合において、
    前記画像表示制御部が、前記現実物体の前記筆記面における座標情報から特定された前記使用者の手の左右および前記筆記具の先端位置を示す情報と、各画像オブジェクトの座標情報とに基づいて、前記非表示にする画像オブジェクトを特定する請求項2に記載の自筆支援装置。
  4. 使用者からの利き手情報を受け付ける利き手情報受付部を備え、
    前記現実物体が、前記筆記具と該筆記具を保持する使用者の手である場合において、
    前記画像表示制御部が、前記利き手情報および前記現実物体の前記筆記面における座標情報に基づいて特定された前記筆記具の先端位置を示す情報と、各画像オブジェクトの座標情報とに基づいて、前記非表示にする画像オブジェクトを特定する請求項2に記載の自筆支援装置。
  5. 前記画像表示制御部が、
    前記現実物体の前記筆記面における座標情報として、前記筆記面における前記現実物体の投影領域の上端、下端、左端および/または右端の位置座標を取得し、
    前記使用者の手が右手である場合には、前記筆記面における前記現実物体の投影領域の上端より下に下端を有する画像オブジェクトであって、左端が前記筆記具の先端位置より右側にある画像オブジェクトを前記非表示する画像オブジェクトとして特定し、
    前記使用者の手が左手である場合には、前記筆記面における前記現実物体の投影領域の上端より下に下端を有する画像オブジェクトであって、右端が先端位置より左側にある画像オブジェクトを前記非表示にする画像オブジェクトとして特定する請求項3または4に記載の自筆支援装置。
  6. 前記画像表示制御部が、
    前記使用者の手が右手である場合には、前記現実物体の投影領域の左端を前記筆記具の先端位置として設定し、
    前記使用者の手が左手である場合には、前記現実物体の投影領域の右端を前記筆記具の先端位置として設定する請求項5に記載の自筆支援装置。
  7. 前記画像表示制御部が、前記第1の画像とは異なる第2の画像を、前記第1の画像に重ねて前記画像表示面に表示する請求項1から6のいずれか1項に記載の自筆支援装置。
  8. 前記画像表示制御部が、前記第1の画像の前記非表示にする画像オブジェクトの表示領域に、前記筆記具の先端が重なる画像オブジェクトに関する情報を前記第2の画像として表示する請求項7に記載の自筆支援装置。
  9. 筆記面において虚像として視認される、筆記対象領域を示す複数の画像オブジェクトを含む第1の画像を画像表示面に表示させ、
    前記筆記面と画像表示面との間の空間に筆記具を含む現実物体が挿入された場合に、前記複数の画像オブジェクトのうち、前記筆記面上で前記現実物体と重なり、かつ、前記筆記具の先端とは重ならない画像オブジェクトを非表示にする自筆支援方法。
  10. 請求項9に記載の自筆支援方法をコンピュータに実現させるプログラム。
JP2019567870A 2018-01-23 2018-11-14 自筆支援装置、自筆支援方法およびプログラム Active JP6884233B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018008813 2018-01-23
JP2018008813 2018-01-23
PCT/JP2018/042143 WO2019146221A1 (ja) 2018-01-23 2018-11-14 自筆支援装置、自筆支援方法およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2019146221A1 JPWO2019146221A1 (ja) 2020-12-17
JP6884233B2 true JP6884233B2 (ja) 2021-06-09

Family

ID=67395894

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019567870A Active JP6884233B2 (ja) 2018-01-23 2018-11-14 自筆支援装置、自筆支援方法およびプログラム

Country Status (3)

Country Link
US (1) US11222563B2 (ja)
JP (1) JP6884233B2 (ja)
WO (1) WO2019146221A1 (ja)

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1420491A (en) * 1921-01-06 1922-06-20 Louis F Morse Copying apparatus
JPS512341U (ja) * 1974-06-20 1976-01-09
JPS5876798U (ja) * 1981-11-18 1983-05-24 株式会社学習研究社 拡大器を兼ねた透視描写器
JPH039056U (ja) 1989-06-16 1991-01-29
JP3009056U (ja) 1994-09-16 1995-03-28 株式会社トミー 転写装置
JP3968651B2 (ja) * 2002-09-19 2007-08-29 カシオ計算機株式会社 演奏教習装置
KR101134540B1 (ko) * 2005-09-07 2012-04-13 삼성전자주식회사 디지털 영상 처리 장치 및 화상 표시 방법
JP4634975B2 (ja) 2006-07-21 2011-02-16 日本電信電話株式会社 視触覚融合提示装置
TWI365005B (en) * 2008-01-04 2012-05-21 Chimei Innolux Corp Organic light emitting diode (oled) display devices, modules, and electronic devices
US8773464B2 (en) * 2010-09-15 2014-07-08 Sharp Laboratories Of America, Inc. Methods and systems for collaborative-writing-surface image formation
US20130300672A1 (en) * 2012-05-11 2013-11-14 Research In Motion Limited Touch screen palm input rejection
JP6097586B2 (ja) * 2013-02-05 2017-03-15 株式会社光文書院 書写教則教材、および書写教則教材の作成方法
KR102156617B1 (ko) * 2013-02-07 2020-09-16 삼성전자주식회사 터치키 동작의 제어 방법 및 장치
WO2014188367A1 (en) * 2013-05-22 2014-11-27 Van Heerden Lex A drawing aid and a method of drawing an object
KR102190062B1 (ko) * 2014-06-02 2020-12-11 엘지전자 주식회사 웨어러블 디바이스 및 그 제어 방법
JP6401306B2 (ja) * 2015-01-29 2018-10-10 富士フイルム株式会社 自筆支援装置
JP6596883B2 (ja) 2015-03-31 2019-10-30 ソニー株式会社 ヘッドマウントディスプレイ及びヘッドマウントディスプレイの制御方法、並びにコンピューター・プログラム
JP6719654B2 (ja) * 2017-03-27 2020-07-08 富士フイルム株式会社 自筆支援装置
WO2019064987A1 (ja) * 2017-09-27 2019-04-04 富士フイルム株式会社 自筆支援装置

Also Published As

Publication number Publication date
JPWO2019146221A1 (ja) 2020-12-17
US11222563B2 (en) 2022-01-11
US20200342798A1 (en) 2020-10-29
WO2019146221A1 (ja) 2019-08-01

Similar Documents

Publication Publication Date Title
Gruenefeld et al. Eyesee360: Designing a visualization technique for out-of-view objects in head-mounted augmented reality
US9704285B2 (en) Detection of partially obscured objects in three dimensional stereoscopic scenes
EP3311250B1 (en) System and method for spawning drawing surfaces
US11557102B2 (en) Methods for manipulating objects in an environment
US9829989B2 (en) Three-dimensional user input
US10295826B2 (en) Shape recognition device, shape recognition program, and shape recognition method
CN107209565B (zh) 用于显示固定大小的增强现实对象的方法和系统
CN106664398B (zh) 具有与虚拟对象的深度协作的认可范围的显示装置及其控制方法
JP2006127158A (ja) 画像処理方法、画像処理装置
JP2012252627A (ja) プログラム、情報記憶媒体及び画像生成システム
KR100971667B1 (ko) 증강 책을 통한 실감 콘텐츠를 제공하는 방법 및 장치
US20150033157A1 (en) 3d displaying apparatus and the method thereof
EP4127869A1 (en) Devices, methods, and graphical user interfaces for gaze-based navigation
JP6805524B2 (ja) 入力装置、入力プログラム、及び入力方法
JP2010259017A (ja) 表示装置、表示方法、および表示プログラム
JP6739847B2 (ja) 画像表示制御装置および画像表示制御用プログラム
JP2022058753A (ja) 情報処理装置、情報処理方法及びプログラム
JP2021002290A (ja) 画像処理装置およびその制御方法
JP6815528B2 (ja) 自筆支援装置
JP6884233B2 (ja) 自筆支援装置、自筆支援方法およびプログラム
JP2020528626A (ja) ウェブページを三次元オブジェクト上に重ね合わせる方法、装置およびコンピュータプログラム
KR20170037692A (ko) 3차원 디스플레이 장치 및 방법
KR20240007514A (ko) Ar 기반의 사용자 맞춤 의학 콘텐츠 제공 장치 및 방법
KR20120063349A (ko) 3d 입체 카툰 변환 방법 및 시스템, 이를 위한 기록매체
Sharma Augmented tools with transparent displays

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210420

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210511

R150 Certificate of patent or registration of utility model

Ref document number: 6884233

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150