JPWO2020032097A1 - 携帯型端末および管理サーバ - Google Patents

携帯型端末および管理サーバ Download PDF

Info

Publication number
JPWO2020032097A1
JPWO2020032097A1 JP2020535832A JP2020535832A JPWO2020032097A1 JP WO2020032097 A1 JPWO2020032097 A1 JP WO2020032097A1 JP 2020535832 A JP2020535832 A JP 2020535832A JP 2020535832 A JP2020535832 A JP 2020535832A JP WO2020032097 A1 JPWO2020032097 A1 JP WO2020032097A1
Authority
JP
Japan
Prior art keywords
model
real
portable terminal
information
time visualization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020535832A
Other languages
English (en)
Inventor
勝也 藤川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FUJIKAWA RESIN INC.
Original Assignee
FUJIKAWA RESIN INC.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FUJIKAWA RESIN INC. filed Critical FUJIKAWA RESIN INC.
Publication of JPWO2020032097A1 publication Critical patent/JPWO2020032097A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0621Item configuration or customization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0623Item investigation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation

Abstract

モデル対象を簡易かつ詳細に表示しつつ、作業者の操作に応じて表示状態をリアルタイムに変化させることを可能にした携帯型端末(1)を提供する。モデル対象を3次元で可視化する携帯型端末(1)は、表示状態をリアルタイムに変化させることが可能なリアルタイム可視化3Dモデル及び前記モデル対象の付属情報を表示する表示部(21)と、ユーザの操作によって前記表示部(21)に表示された前記リアルタイム可視化3Dモデル及び前記付属情報の表示状態の変更を可能とする複数の操作部(22)と、前記表示部(21)及び前記操作部(22)を制御する制御部(20)を含む。

Description

本発明は、3Dモデルを表示する携帯型端末、および、その携帯型端末が接続される管理サーバに関する。
近年、携帯型端末が急速に普及しており、その中で、携帯型端末を利用して営業活動を円滑にしようとする試みも行われている。例えば、特許文献1に記載の作業管理装置では、営業活動で社外に出ているユーザの携帯型端末に営業スケジュールを送信し、営業の効率化を図っている。このように、社外での営業活動において、携帯型端末を所持することは、普通のことになっている。
ところで、そのような携帯型端末に、三次元コンピュータグラフィックデータ(3DCG)を含む三次元モデリングデータに基づく三次元モデル(3Dモデル)を表示する表示装置が従来からある。例えば、特許公報1に記載のモバイル表示装置は、携帯型端末に、コンテンツの3Dビューイングおよび2Dビューイングの少なくともいずれか一方を携帯型端末のユーザが選択して表示させるものである。
このような携帯型端末では、3Dビューイングにより3Dモデルがユーザの操作により所望の角度や、サイズで表示される。特に、特許文献1に記載のモバイル表示装置は、3Dビューイングと2Dビューイングのそれぞれに対応して、ステレオスコープ視を提供する3D表示部を備え、3Dモデルの表示に優れている。
特開2017−151847号公報 開2017−208821号公報
しかし、上述のような携帯型端末では、主に3DCGデータからなる3Dモデルを表示するのみであった。すなわち、3DCGデータは、モデル対象の形体情報を含まない為、作業者の操作に応じて簡易かつ詳細に3Dモデルをリアルタイムに表示することは困難であった。また、3DCGデータのみの3Dモデルの場合、モデル対象に係る3Dモデルの実際の形体情報が欠如しており、携帯情報に関連して3Dモデルに変更や追加を加えることが困難であった。
また、特に、営業先で携帯型端末を利用しようとするときは、情報量の多い営業ツールは、営業担当者が操作を困難と考えることが多く、携帯型端末で3Dモデルを表示するためには、3DCADによる正確な形体情報までは不要と考えられる場合が多かった。
本発明は、上記のような課題に鑑み、表面情報によるモデル対象のリアルな質感により、作業者が、あたかも現実の製品を操作している感覚となることに加え、作業者の操作に応じてリアルタイムに、モデル対象の形体情報によりモデル対象を簡易かつ詳細に表示する携帯型端末を提供することを目的とする。
(1)本発明に係る携帯型端末は、モデル対象を3次元で可視化し、表示状態の変化をリアルタイムに変化させるリアルタイム可視化3Dモデルと前記モデル対象に係る付属情報とを表示可能である表示部と、ユーザの操作により、前記表示部に表示された前記リアルタイム可視化3Dモデルおよび付属情報の表示状態を変更する複数の操作部と、前記表示部および前記操作部を制御する制御部とを含むことを特徴とする。
リアルタイム可視化3Dモデルを表示するための3Dモデリングデータは、3DCADデータに代表されるような、モデル対象の正確な寸法、形状、縮尺等の形体情報と、3DCGデータに代表されるような、モデル対象の質感、色彩、光沢等の情報を含む表面情報とからなる。
この携帯型端末では、形体情報と、表面情報とからなる3Dモデリングデータにより、モデル対象を3次元で可視化し、表示状態の変化をリアルタイムに変化させるリアルタイム可視化3Dモデルが表示されるため、表面情報によるモデル対象のリアルな質感により、作業者が、あたかも現実の製品を操作している感覚となることに加え、作業者の操作に応じてリアルタイムに、モデル対象の形体情報によりモデル対象を簡易かつ詳細に表示することができる。
また、リアルタイム可視化3Dモデルに加え、その付属情報を表示可能とすることにより、より詳細なモデル対象の情報を簡易かつ詳細に表示することができるため、営業ツールとして高い利便性を提供できる。また、モデル対象に係るリアルタイム可視化3Dモデルの実際の形体情報がモデリングデータに含まれており、この携帯型端末では、形体情報に関連してリアルタイム可視化3Dモデルに変更や追加を加えることができる。これにより、携帯型端末を扱うユーザはアフォーダンスを与えられ、あたかもモデル対象である現実の製品を操作しているような感覚をユーザに与えることができる。
(2)前記した携帯型端末において、前記モデル対象は可動部を備え、前記表示部は、タッチパネルディスプレイを含むことにより、前記操作部として機能し、ユーザが指先を前記タッチパネルディスプレイに接触させて操作することで、前記リアルタイム可視化3Dモデルの前記可動部が動作するようにしてもよい。
この携帯型端末によれば、ユーザは、ユーザがリアルタイム可視化3Dモデルの表示状態の変化をリアルタイムにタッチパネルディスプレイの操作により行えるため、直感的に3Dモデルを操作することができる。したがって、携帯型端末を扱うユーザはアフォーダンスを与えられ、あたかもモデル対象である現実の製品を操作しているような感覚をユーザに与えることができる。特に、可動部の動作を、モデル対象の実際の動作に併せて、または実施の動作よりも強調して、動作の速度を調整することにより、より強く、現実の製品を操作している感覚を与えることができる。
(3)前記した携帯型端末において、前記モデル対象は可動部を備え、前記操作部は、前記前記リアルタイム可視化3Dモデルにおける前記可動部を自動的に所定の動作をさせる自動動作選択手段を有し、前記自動動作選択手段が操作されることにより、前記リアルタイム可視化3Dモデルの前記可動部が自動的に所定の動作するようにしてもよい。このような携帯型端末によれば、所定のアニメーションにより可動するモデル対象の最も印象付けたい動作を、ユーザに、よりリアルな感覚で提供できる。
(4)前記モデル対象は、点灯または消灯するインジケータを備え、前記操作部は、前記前記リアルタイム可視化3Dモデルにおける前記インジケータを点灯させる点灯選択手段または消灯させる消灯選択手段を有し、前記点灯部が選択されることにより、前記3Dモデルの前記インジケータが点灯し、前記消灯部が選択されることにより、前記3Dモデルの前記インジケータが消灯するようにしてもよい。さらに、前記インジケータの点灯または消灯は、前記可動部の動作に連動するようにしてもよい。
このような携帯型端末によれば、インジケータを備えるモデル対象の3Dモデルにおいて、インジケータの点灯または消灯を表現することができ、作業者に、あたかも現実の製品を操作している感覚を強く与えることができる。特に、インジケータの点灯や消灯を、モデル対象の実際の動作に併せて、または実施の動作よりも強調して、強度の変化や変化の速度を調整することにより、より強く、現実の製品を操作している感覚を与えることができる。
(5)前記付属情報は、前記リアルタイム可視化3Dモデルに係る付属品一覧、価格表、仕様表、動画、音声、注意文の少なくともいずれか1つを含む。このようにすれば、3Dモデルのリアルな質感や動作の情報に加え、モデル対象の詳細な情報を提供できるため、営業活動が円滑になる。特に、付属品一覧の情報は、3DCADデータと関連して、3Dモデルデータに付属品を追加して表示することもでき、詳細な情報を提供することができる。
(6)前記した携帯型端末は、さらに、前記操作部が操作された操作情報を記憶する記憶部を備えるようにしてもよい。このようにすれば、3Dモデルの表示状態を変更する複数の操作部により操作された情報を記憶することにより、3Dモデルを操作する情報に基づく操作ログを取得し、例えば、営業活動において営業担当者がどのように営業活動を行うのが適切であるかなどといった、種々の判断に利用することができる。
また、前記した携帯が端末において、前記操作情報は、ユーザにより操作部が操作された回数、時間、リアルタイム可視化3Dモデルの遷移等を含むようにしてもよい。このようにすれば、リアルタイム可視化3Dモデルの基本的な操作に限定して操作情報を取得することになり、営業活動において営業担当者がどのように営業活動を行うのが適切であるかなどといった、種々の判断に必要な情報だけを取得することができる。
また、前記した携帯型端末は、前記操作部が操作された操作情報を取得するサーバに接続されるようにしてもよい。このようにすれば、操作情報、すなわち操作ログを管理サーバにより、一括管理することができ、多数の携帯型端末の操作ログを利用して、例えば、営業活動において営業担当者がどのように営業活動を行うのが適切であるかなどといった、さまざまな判断に利用することができる。
また、前記した携帯型端末は、さらに、ユーザを認証する認証部を備え、ユーザを認証し、ユーザごとに前記操作情報を記憶するようにしてもよい。このような携帯型端末によれば、携帯型端末のユーザを特定することができる。これにより、操作情報をユーザに関連づけて管理し、分析することができる。
また、前記認証部は、アクセスキー、指紋、顔等による認証とそれらの履歴により行われるようにしてもよい。このようにすれば、ユーザの判別を容易にできる。
上述のとおり、本発明の携帯型端末では、付属情報として、リアルタイム可視化3Dモデルの外形情報(高さ、幅方向、奥行き等の寸法情報)を、リアルタイム可視化3Dモデルと共に表示可能とされている。ここで、リアルタイム可視化3Dモデルの寸法情報を表示させるだけでは、表示された寸法情報に対して、とあるスペースに入るかどうか、とあるスペースに対するスケール感等がイメージし難いといった指摘があった。
このような指摘を受け、本発明の発明者が改善を検討したところ、リアルタイム可視化3Dモデルを表示させる際に、グリッド線のように所定のピッチで線を表示することとすれば、上記の問題を改善できるとの知見に至った。
(7)上述の知見に基づき提供される本発明の携帯型端末は、前記付属情報は、前記リアルタイム可視化3Dモデルの寸法を把握するための寸法基準情報を含み、 前記表示部は、前記寸法基準情報を前記リアルタイム可視化3Dモデルと共に表示可能であることを特徴とする。このようにすれば、高さ方向、奥行き方向、幅方向など、リアルタイム可視化3Dモデルのスケール感をより把握しやすくなる。例えば、リアルタイム可視化3Dモデルと共に所定のピッチで線(寸法基準線)を表示すれば、いくつのピッチ内(例えば10センチメートル間隔のピッチで線が表示されている場合)に対象物が収まるか、といったことを視覚的に把握してイメージしやすくなる。
(8)前記携帯型端末は、前記表示部に構成される前記リアルタイム可視化3Dモデルを表示する仮想空間において、前記リアルタイム可視化3Dモデルの三次元方向の最も外側を含む三次元の箱状の領域を外装領域とし、前記寸法基準情報は、前記リアルタイム可視化3Dモデルに対して前記外装領域の一点を基準位置として相対的に位置決めして表示するとよい。このようにすれば、モデル対象の製品等を配置しようと想定しているスペースに対するモデル対象のスケール感(余剰空間が十分にあるか等)を、ユーザが直感的に把握しやすくなる。
(9)前記携帯型端末は、前記寸法基準情報が、前記リアルタイム可視化3Dモデルに対して相対的に位置を移動させることができるものであるとよい。このようにすれば、モデル対象の製品等を配置しようと想定しているスペース、あるいは搬入に要するスペースに対して、モデル対象をどのように配置すればスペースに収まるかなど、ユーザが直感的に把握しやすくなる。
(10)前記表示部に構成される前記リアルタイム可視化3Dモデルを表示する仮想空間において、前記リアルタイム可視化3Dモデルの三次元方向の最も外側を含む三次元の箱状の領域を外装領域とし、前記寸法基準情報は、前記リアルタイム可視化3Dモデルの前記外装領域を含む範囲で表示可能であるとよい。このようにすれば、モデル対象のスケール感の把握に必要最小限の情報を表示させることができる。言い方を換えれば、リアルタイム可視化3Dモデルを覆うように過度に寸法基準情報(グリッド線等)が表示されて、モデル対象のスケール感の把握を阻害する結果となることを回避することができる。その結果、本発明の携帯型端末は、よりスッキリとしたモデリング画像を表示して、より効率的にスケール感の把握を行い得る。
ここで、モデル対象となる製品には、製品の本体に加え、様々な付属品(例えばオプション製品)が取り付けられることが想定される。製品の本体の外部に付属品が取り付けられると、製品全体の外形が変化することが想定される。付属品自体の寸法は、付属品単体で用いられることが想定されないためさほど重要ではないものの、付属品が取り付けられた状態の製品については、収容スペースやスケール感などを事前に把握可能としたいとの要望があった。
(11)上述の要望に応じるため、前記携帯型端末は、前記付属情報が、前記リアルタイム可視化3Dモデルの前記モデル対象に取り付け可能な付属品に係る情報である付属品情報を含み、前記付属品情報は、前記付属品が前記モデル対象に取り付けられた状態を表示する前記リアルタイム可視化3Dモデルが表示される場合にのみ表示可能であることが望ましい。このようにすれば、付属品の追加を検討するユーザに対して、事前にモデル対象の製品を配置しようとするスペースに付属品が取り付けられた状態で配置可能であるか否か、事前に判断することができる。すなわち、製品を配置しようと予定しているスペースに対して、三次元方向の付属品の取り付け可否を事前に判断することができる。
(12)前記携帯型端末は、前記付属品が前記モデル対象に取り付けられた状態を表示する前記リアルタイム可視化3Dモデルを表示した状態で、前記寸法基準情報を表示可能であるとよい。このようにすれば、付属品の追加を検討するユーザに対して、事前にモデル対象の製品を配置しようとするスペースに付属品が取り付けられた状態で配置可能であるか否か、スケール感を直感的に把握して、容易に判断することができる。
(13)前記携帯型端末は、前記表示部に構成される前記リアルタイム可視化3Dモデルを表示する仮想空間において、前記リアルタイム可視化3Dモデルの三次元方向の最も外側を含む三次元の箱状の領域を外装領域とし、前記寸法基準情報は、前記付属品が前記モデル対象に取り付けられた状態を表示する前記リアルタイム可視化3Dモデルの前記外装領域を含む範囲で表示可能であるとよい。このようにすれば、モデル対象のスケール感の把握に必要最小限の情報を表示させることができる。言い方を換えれば、リアルタイム可視化3Dモデルを覆うように過度に寸法基準情報(グリッド線等)が表示されて、モデル対象のスケール感の把握を阻害する結果となることを回避することができる。その結果、本発明の携帯型端末は、よりスッキリとしたモデリング画像を表示して、より効率的にスケール感の把握を行い得る。
(14)本発明に係る管理サーバは、前記した携帯型端末に接続されている。このような携帯型端末によれば、操作ログを管理サーバにより、一括管理することができ、多数の携帯型端末の操作情報を利用して、例えば、営業活動において営業担当者がどのように営業活動を行うのが適切であるかなどといった、さまざまな判断をすることができる。
(15)前記した管理サーバは、さらに、人工知能を備え、前記人工知能は、取得された前記操作情報に基づいて、前記操作部の最適な操作方法を構築するようにしてもよい。この管理サーバによれば、人工知能が、通常は処理できない大量の携帯型端末の操作ログを利用して、例えば、営業活動において営業担当者がどのように営業活動を行うのが適切であるかなどといった、さまざまな判断を統計的に処理することができる。
(16)前記携帯型端末は、GPS機能を備え、前記GPS機能により前記携帯型端末の所有者の移動情報を取得することを特徴とする。このようにすれば、携帯型端末を使用する位置を特定でき、操作ログに位置情報を加味した種々の判断が可能となる。
本発明は、表面情報によるモデル対象のリアルな質感により、作業者が、あたかも現実の製品を操作している感覚となることに加え、作業者の操作に応じてリアルタイムに、モデル対象の形体情報によりモデル対象を簡易かつ詳細に表示する携帯型端末を提供することができる。
本発明の実施の形態に係る携帯型端末および管理サーバの運用形態を示す図である。 本発明に係る携帯型端末のハードウエア構成を模式的に示すブロック図である。 本発明に係る携帯型端末が3Dモデル表示アプリを動作することにより構成される機能ブロックを示すブロック図である。 本発明に係る携帯型端末の表示部に表示される3Dモデルを示す図であり、 (A)は扉部材を閉じた状態の3Dモデルの本体に板状部材が収容された図を示し、 (B)は扉部材を閉じた状態の3Dモデルの本体に板状部材が突出した図を示す。 本発明に係る携帯型端末の表示部に表示される3Dモデルを示す図であり、 (A)は扉部材を開いた状態の3Dモデルの本体に板状部材が収容された図を示し、 (B)は扉部材を開いた状態の3Dモデルの本体に板状部材が突出した図を示す。 表示部に3Dモデルが表示された本発明に係る携帯型端末を示す平面図である。 3Dモデルを表示した表示部の一の実施例を示す画面図である。 図7に示した3Dモデルの状態が変更された画面図である。 3Dモデルを表示した表示部の他の実施例を示す画面図である。 図9に示した3Dモデルの状態が変更された画面図である。 3Dモデルを表示した表示部の他の実施例を示す画面図である。 図11に示した3Dモデルの状態が変更された画面図である。 図12に示した3Dモデルの状態が変更された画面図である。 3Dモデルを表示した表示部の他の実施例を示す画面図である。 図14に示した3Dモデルの状態が変更された画面図である。 3Dモデルを表示した表示部の他の実施例を示す画面図である。 3Dモデルを表示した表示部の他の実施例を示す画面図である。 3Dモデルを表示した表示部の第二の実施例を示す画面図である。 図18の3Dモデルの斜視状態における外装領域及び寸法基準情報を示す図である。 (A)は外装領域を示し、 (B)は外装領域に加え、寸法基準情報が表示された状態を示す。 図18の3Dモデルの正面視状態における外装領域及び寸法基準情報を示す図であり、(A)は外装領域を示し、(B)は外装領域に加え、寸法基準情報が表示された状態を示す。 図18の3Dモデルの寸法基準情報の位置を変更した状態を示す画面図である。 3Dモデルを表示した表示部の第三の実施例を示す画面図である。 図22の3Dモデルとともに外装領域及び寸法基準線が表示された状態を示す画面図である。 図22の3Dモデルの正面視状態における外装領域及び寸法基準情報を示す図であり、(A)は外装領域を示し、(B)は外装領域に加え、寸法基準情報が表示された状態を示す。
本発明の実施形態に係る携帯型端末1および管理サーバSについて、図面を参照しつつ詳細に説明する。図1に示すように、携帯型端末1は、インターネットINを介して管理サーバSに接続し、通信することができる。本実施形態において、携帯型端末1は、企業の営業活動を担当する、いわゆる営業担当者が営業先へ訪問する際に所持される。また、管理サーバSは、企業の管理者に管理される。
本発明に係る携帯型端末1および管理サーバSは、後述するように、所定のモデル対象に係る3Dモデリングデータを有する。リアルタイム可視化3Dモデル(以下、単に「3Dモデル」とも称する。)Mの基本情報(以下、単に「基本情報」とも称する。)、3DモデルMの動作情報(以下、単に「動作情報」とも称する。)、3DモデルMの付属情報(以下、単に「付属情報」とも称する。)等を含む。3DモデルMは、形体情報および表面情報を含む3Dモデリングデータに基づいて携帯型端末1に表示される。
ここで、形体情報とは、従来よく知られるCAD(Computer AiDeD Design)システムに用いられ、モデル対象の寸法、形状、縮尺等のデータを含む情報である。また、表面情報とは、CG(Computer Graphics)に用いられ、モデル対象の質感、色彩、光沢等を表現するためのデータを含む情報である。
これにより、リアルタイム可視化3Dモデルは、モデリングデータに形体情報と、表面情報とを含むことにより、モデル対象を3次元で可視化し、表示状態の変化をリアルタイムに変化させて表示することができる。したがって、リアルタイム可視化3Dモデルによれば、表面情報によるモデル対象のリアルな質感により、ユーザが、あたかも現実の製品を操作している感覚となることに加え、ユーザの操作に応じてリアルタイムに、モデル対象の形体情報によりモデル対象を簡易かつ詳細に表示することができる。
基本情報とは、モデル対象の実際の状態を表現するために、3Dモデルの形体情報、表面情報等を含む。動作情報は、モデル対象の実際の動作を表現するために、モデルの可動部が動作する範囲、速度、方向等の情報を含む。付属情報は、付属品一覧、価格表、仕様表、動画、音声、注意文等を含む。
本実施の形態に係る携帯型端末1は、例えば、従来よく知られるタブレット端末またはスマートフォンであり、ハードウエアの構成として、図2に示すように、CPU(Central Processing Unit)11、RAM(RanDom Access Memory)12、ROM(ReaD Only Memory)13、HDD(HarD Disk Drive)14、出力装置15、入力装置16およびI/F17を含み、それぞれがバス18を介して接続されている。
CPU11は、従来よく知られる演算手段であり、携帯型端末1全体の動作を制御する。RAM12は、情報の読み書きを高速で行う揮発性の記憶媒体であり、CPU11が情報を処理する際の作業領域として機能する。ROM13は、読み出し専用の不揮発性記憶媒体であり、ファームウエア等のプログラムが格納されている。
HDD14は、情報の読み書きを行う不揮発性の記憶媒体であり、OS(Operating System)や各種の制御プログラム、アプリケーション(以下単に「アプリ」とも称する。)等が格納される。本実施形態において、HDD14は、3D表示モデルアプリを記憶しており、この3Dモデル表示アプリが動作することにより、後述する3Dモデル表示の実施例が実現する。
出力装置15は、LCD(LiquiD Crystal Display)のような、携帯型端末1の操作者(以下「ユーザ」とも称する。)に対するユーザインターフェースである。本実施形態に係る携帯型端末では、出力装置15は、タッチパネルのディスプレイを含む。
入力装置16は、各種のハードボタン、タッチパネル等を含み、ユーザが携帯型端末1を操作するためのユーザインターフェースである。なお、本実施形態においては、出力装置15としてタッチパネルのディスプレイを含み、タッチパネルのディスプレイは入力装置16としても機能する。また、入力装置16は、指紋認証のための指紋情報取得装置や、撮像用のカメラ等を備えていてもよい。
I/F17は、携帯型端末1と、他の各種のハードウエアやネットワーク等とを接続する。具体的には、I/F17は、コネクタのような有線方式の接続装置であってもよいし、ブルートゥース(Bluetooth:登録商標)のような無線方式の接続装置であってもよい。
このようなハードウエア構成において、ROM13、HDD14または光ディスク等の記憶媒体に格納されたプログラムやアプリがRAM12に読み出され、CPU11がそれらのプログラムに従って演算を行うことにより、読み込まれたプログラムやアプリケーションに応じた機能ブロックが構成される。
また、携帯型端末1は、位置情報を提供するGPSのような位置情報発信装置を備えていてもよい。また、携帯型端末1の各ハードウエア構成は、情報を適切に処理できればよく、他のハードウエア構成(例えば、HDD14に代えてSSD(SoliD State Drive))で代替されてもよい。
次に、本発明の実施形態に係る携帯型端末1により3Dモデル表示アプリが動作することにより構成される機能ブロックについて説明する。すなわち、3Dモデル表示アプリが携帯型端末1で起動することにより図3に示す機能ブロック図が構成される。
携帯型端末1は、機能ブロックとして、図3に示すように、3DモデルMを表示する表示部21と、表示部21に表示された3DモデルMを操作する操作部22と、3DモデルMの基本情報、動作情報、付属情報等を記憶する記憶部23と、携帯型端末1をサーバ等の外部装置と通信するための通信部24と、携帯型端末1のユーザを特定する認証部25と、各部を制御する制御部20とを備える。
表示部21は、3Dモデル表示アプリが動作した状態で、記憶部23に記憶された3DモデルM対象に係る形体情報および表面情報を含む3Dモデリングデータに基づいたリアルタイム可視化3DモデルMおよびモデル対象に係る付属情報等を表示可能である。これにより、表示部21に表示された3DモデルMは、モデル対象と同様の外観や動きを表示される。
操作部22は、ユーザの操作により、表示部21に表示された3DモデルM、付属情報、ボタン111およびアイコン112等の表示状態を変更する。本実施形態において、携帯型端末1に設けられたハードボタン111の他に、表示部21を構成するタッチパネルも操作部22として機能する。
操作部22であるタッチパネルは、表示したボタン111やアイコン112をタッチすることで3DモデルMに所定の動作を行わせる。例えば、3DモデルMを自動で動作させるアニメーション機能を作動させる場合に、自動動作プログラムの動作ボタン(自動動作選択手段)をタッチすることで、3DモデルMに自動でプログラミングされた所定の動作を行わせることができる。
また、タッチパネルは、ユーザがタッチパネルに指先を接触させた状態で所定の動作をすることで3DモデルMに所定の動作を行わせる。例えば、2つの指先でタッチパネルをタッチし、タッチした状態で両指を広げるようにピンチアウトすることで、3DモデルMが拡大して表示される。また例えば、1つの指先でタッチパネルに表示された3DモデルMをタッチし、タッチした状態で指先を移動するようにスワイプすることで、3DモデルMを画面内で移動することができる。
このように、操作部22は、ユーザが指先を表示部21に接触させて操作することにより、3DモデルMを動作させるように、表示された3DモデルMの状態を変更することが可能である。このようなタッチパネルを利用した操作は、ユーザに3DモデルMの動作を直感的にイメージさせ、アフォーダンスを与えることができる。
記憶部23は、3DモデルMの基本情報、動作情報、付属情報等の情報を記憶している。これら基本情報、動作情報、付属情報等を用いて3DモデルMを表示することにより、ユーザは、あたかもモデル対象である現実の製品を操作しているような感覚を与えられると共に、必要な3DモデルMの情報を容易に取得できる。
また、記憶部23は、ユーザにより操作された操作情報を操作ログとして記憶する。操作情報には、操作部22が操作された位置、時間、操作部が操作された回数、3DモデルMの遷移等を含む。なお、携帯型端末1の操作された地理的位置は、GPSにより取得することができる。
通信部24は、携帯型端末1に接続されたネットワーク網や外部装置に対して情報を送受信する。例えば、携帯型端末1の操作ログを、インターネットINを介して管理サーバSに送信し、または、管理サーバSから操作ログを編集した編集情報等を取得する。
認証部25は、携帯型端末1を操作するユーザを認証する。認証部は、アクセスキー、指紋、顔等による認証とそれらの履歴により行われるようにしてもよい。アクセスキーは入力装置に含まれるタッチパネルから入力され、顔認証等は入力装置16に含まれるカメラにより取得され、指紋は、入力装置16に含まれる指紋取得装置から取得される。
制御部20は、表示部21、操作部22、記憶部23、通信部24等の携帯型端末1の機能ブロックの各部を制御する。また、制御部は、位置情報発信装置と共同して、GPS(Global・Positioning・System)を構築し、携帯型端末1の位置情報を取得できる。
上述のような機能ブロックにより、表示部21は、モデル対象を三次元的に3DモデルMとして表示し、操作部22の操作により3DモデルMが操作された場合には、操作に応じてリアルタイムに3DモデルMの表示状態を変化させる。また、操作部22は、表示部21に表示された各種のボタン111やアイコン112をユーザがタッチすることで、付属情報を表示したり、3DモデルMを動作させたり、各種設定条件を表示できる。
これにより、3DモデルMに表現されたモデル対象のリアルな質感により、ユーザが、あたかも現実の製品を操作している感覚となることに加え、ユーザの操作に応じてリアルタイムに、モデル対象を簡易かつ詳細に表示することができる。
また、通信部24を介して、管理サーバSに接続し、記憶部23に記憶された操作ログを管理サーバに送信することができる。さらに、認証部25により、携帯型端末1を使用したユーザを特定できるため、ユーザごとに操作ログを記憶することもできる。
さらに、本発明の実施形態に係る携帯型端末1は、管理サーバSに接続されている。管理サーバSは従来よく知られるサーバ機能を有しており、管理サーバSは、ユーザが操作した操作ログを管理サーバSに記憶する。管理サーバSに記憶して蓄積された大量の操作ログから必要な時に必要な操作ログを取り出す事ができる。
また、携帯型端末1は、画像認証、指紋認証、ID認証のような認証機能を有し、ユーザの特定が可能であるため、管理サーバSに記憶された操作ログは、携帯型端末1の操作を行ったユーザを特定して大量の操作ログを分析することができる。
また、管理サーバSは、ハードウエアとソフトウエアから、いわゆる人工知能(AI)を構成する。管理サーバSに構成された人工知能は、管理サーバSに記憶された大量の操作ログから、必要な操作ログを抽出し、携帯型端末1のユーザの行動分析および心理分析をすることができる。例えば、営業成績の優秀なユーザが行った操作ログを収集し、携帯型端末1の特徴的な操作手順を構築する。
また、人工知能が分析、または構築した操作ログの編集情報は、管理サーバSに記憶され、管理サーバSに接続した携帯型端末1は、管理サーバSから当該編集情報を取得することができる。このように携帯型端末1と管理サーバSとは、共同してユーザの操作ログ分析を行う。
[実施例]
次に、本発明の実施形態に係る携帯型端末1に表示される3DモデルMの実施例ついて説明する。図4および5は、表示部21に表示された3DモデルMを示す画面図である。
3DモデルMは、モデル対象(以下「実機」とも称する)が携帯型端末1に表示される。以下の説明では、携帯型端末1に表示された実機の3DモデルMについて説明する。したがって、特に断りがない場合は、3DモデルMは、現実の実機を再現したものとなり、現実の実機と同様の動きをする。
3DモデルMの実機は、4本の脚102に支持された概略直方体の本体101と、本体101に収容され、本体101の前面に突出するよう動作する板状部材103と、板状部材103を移動するための動力源(図示なし)と、本体101に設けられ、板状部材103の移動を案内する案内部(図しなし)と、本体101の前面に設けられたインジケータ104とを備える。
板状部材103は、本体101に収容された状態(図4(A)を参照)から、本体101の前面に突出する状態(図4(B)を参照)に動作可能である。板状部材103が収容された状態でインジケータ104は消灯しており、板状部材103が突出した状態でインジケータ104は点灯している。
直方体の本体101は、4本の脚102に支持されており、所定の高さ位置に配置されている。また、本体101は、直方体の前面を開閉する扉部材105を備える。扉部材105は、本体101の前面の上端を軸に回転し、本体101の前面を開閉可能とする。これにより、扉部材105を開いた状態で、本体101の内部を確認することができる(図5を参照)。本体101の内部には板状部材103を収容する収容空間101sが形成されている。
さらに、本体101は、板状部材103を収容可能に前面に開放する開口を扉部材105の下側に有し、板状部材103は、開口を介して本体101の内部に収容可能となっている。開口は、板状部材103に適合して、概略矩形に形成され、奥行方向に延びて収容空間101sに通じている。これにより、板状部材103は、開口を介して収容空間101sに出し入れされる。
板状部材103は、本体101の奥行寸法と同等の長さ寸法を有し、板状部材103は、図4(A)に示す本体101に収容された状態では、全体を本体101の収容空間101s内に収容されている。また、図4(B)に示す本体101から突出した状態では、奥側の一部のみの本体101の収容空間101s内に収容されている。
動力源は、いわゆるモータから構成されており、板状部材103が本体101に収容した状態になるように板状部材103を収容空間101sに引き込んだり、板状部材103が本体101から突出した状態になるように板状部材103を収容空間101sから押し出したりする。すなわち、動力源が動作することにより、3Dモデルは、本体101に板状部材103が収容された状態、本体101から板状部材が突出した状態とで遷移する。
案内部は、板状部材103が本体101の収容空間101sを出入りするのを案内する。案内部は、具体的には、本体101の開口の両側部に、従来よく知られるスライダ機構が奥側に向けて形成されており、各スライダ機構が板状部材103の両側に結合して、スライダ機構がスライドすることで板状部材103の移動が案内される。
3DモデルMは、板状部材103が案内部に案内されて、動力源の動作により本体101に出し入れされる可動部として機能する。インジケータ104は、板状部材103の状態に応じて、点灯または消灯する。具体的には、板状部材103が本体101に収容された状態でインジケータ104は消灯し(図4(A)を参照)、板状部材103が本体101から突出した状態でインジケータ104は点灯してる(図4(B)を参照)。
3DモデルMは、図5に示すように、本体101の扉部材105を開くことにより収容空間101sを開放する。これにより、表示部21は、収容空間101s内において、板状部材103が収容された状態(図5(A)を参照)から板状部材103が突出する状態(図5(B)を参照)を表示することができる。
次に、上述の3DモデルMを表示した携帯型端末1において、3DモデルMの表示状態、3DモデルMの操作等について説明する。図6は、表示部21に3Dモデルが表示された携帯型端末1を示す平面図であり、図7〜図17は、3DモデルMを表示した表示部21を示す画面図である。
図6に示すように、表示部21は、板状部材103が突出した状態の3DモデルMの他に、各種ボタン111およびアイコン112を表示している。表示部21に表示された各種ボタン111およびアイコン112は、携帯型端末1のユーザの指先が接触(タッチ)することにより、表示部21の表示状態が変更する。
図7に示すように、携帯型端末1のユーザが、表示部21に表示された収納ボタン111(自動動作選択手段)にタッチすると、板状部材103が自動動作プログラムにより動作して自動的に本体101の内部に収容され、板状部材103が収容された状態に変更される(図8を参照)。ことのとき、この板状部材103の動作に連動して点灯していたインジケータ104は消灯する。なお、本実施例において指示マークDは、ユーザの指先がタッチした状態を示す。
ここで、記憶部23は、3DモデルMの動作情報として、可動部である板状部材の可動速度データを記憶しており、板状部材103が自動で収納されるときは、設定された可動速度で動作する。このようにすれば、例えば、板状部材103を遅く動かすほどに、より重厚感または高級感を演出することができる。また、また、インジケータ104は、板状部材103に連動しており、板状部材103をゆっくり動かすほどに、ゆっくり消灯する。
または、図9に示すように、ユーザが、板状部材103をタッチした状態で、本体101側にスワイプすると、板状部材103がスワイプに対応して本体101の内部に収容される(図10を参照)。具体的には、ユーザのスワイプの速度に応じて、板状部材103が本体101に収容される。
この板状部材103の動作に連動して点灯していたインジケータ104は消灯する。ここで、記憶部23は、3DモデルMの動作情報として可動速度データを記憶しており、手動で収納する際も、スワイプの速度が一定速度より早い場合は、設定速度以上では動作しないようになっている。
または、図11に示すように、本体101の扉開くボタン111をタッチすることにより、扉部材105が回転して開き、本体101の前面が開放され、扉部材105が開いた状態に変更される(図12を参照)。なお、ユーザが指先を扉部材にタッチした状態で扉部材105を回転するようにスワイプすることにより扉部材105を回転することもできる。
さらに、図12に示すように、扉部材105を開いた状態で、本体101の収容空間101sを拡大するように操作(ピンチアウト)することにより、表示部21は、本体101内部を拡大して表示する(図13を参照)。ここで、記憶部23は、本体101の形体情報を記憶しており、収容空間101sが拡大されても、詳細な収容空間101s内の状態を表示することができる。
また、図14に示すように、板状部材103を所定時間タッチすることにより、「非表示」ボタン121を含むウインド120が表示され、この「非表示」ボタン121をタッチすることにより、表示部21から板状部材103を表示しないようにすることができる(図15を参照)。板状部材103が非表示の状態で、本体101の内部を拡大して表示することで、直方体の本体101の収容空間101sの板状部材103の下に隠れた底部101bをみることができる。
また、表示部21は、付属情報を表示することができる。例えば、図16に示すように、脚102部分をタッチすることにより、「寸法」ボタン131を含むウインド130が表示され、「寸法」ボタン131を選択することにより、脚102の長さ寸法が表示される。
また、表示部21は、アイコンをタッチすることで付属品を表示することができる。例えば、図17に示すように、本体101の下に付属品のボックス106を配置した状態を表示することができる。また、例えば、付属品を表示した状態で、付属品ボックスが本体101との関係で配置できない場合は、配置不能の表示がされてもよい。
[第2の実施例]
次に、図18〜21を参照しつつ、本発明の実施形態に係る携帯型端末1に表示される3DモデルMの第2の実施例ついて説明する。図18は、表示部21に表示された実機の3DモデルMを示す画面図である。
本実施例の3DモデルMの実機は、第1の実施例に係る実機と同様に、4本の脚102に支持された概略直方体の本体101と、本体101部に収容され、本体101部の前面に突出するよう動作する板状部材103と、板状部材103を移動するための動力源(図示なし)と、本体101部に設けられ、板状部材103の移動を案内する案内部(図しなし)と、本体101の前面に設けられたインジケータ104とを備える。
携帯型端末1の付属情報には、上述した付属品一覧、価格表、仕様表、動画、音声、注意文等に加え、3DモデルMの寸法を把握するための寸法基準情報が含まれている。表示部21は、寸法基準情報を3DモデルMと共に表示可能とされている。
図19(B)及び図20(B)に示すとおり、寸法基準情報は、表示部21に表示される仮想空間において、寸法を表示するものとして一定の間隔(間隔D)で表示されるものである。例えば、寸法基準情報は、3DモデルMの幅方向をX方向とし、高さ方向をY方向とし、奥行き方向をZ方向とした場合に、表示部21の仮想空間におけるX方向、Y方向、及びZ方向のそれぞれに、等間隔(間隔D)でグリッド線Lを表示させる。
なお、間隔Dは、利用者の操作により任意の寸法を選択可能としてもよい。例えば、間隔Dは、「2cm」、「5cm」、「10cm」など、ユーザの選択に応じた間隔Dで表示可能としてもよい。
図18及び図19(A)に示すとおり、携帯型端末1は、表示部21に構成される3DモデルMを表示する仮想空間において、3DモデルMの最も外側を含む三次元の箱状の領域を外装領域Rとして抽出する。また、図19(B)に示すとおり、携帯型端末1は、寸法基準情報を、3DモデルMに対して外装領域Rの一点を基準位置Pbとして相対的に位置決めして(相対的な位置を維持した状態で)表示する。
具体的に説明すると、図19(A)に示すとおり、携帯型端末1は、3DモデルMの外形において、X方向、Y方向、及びZ方向における最も外側となる位置を抽出する。また、携帯型端末1は、3DモデルMの最も外側となる位置を含む範囲を外装領域R1として抽出し、外装領域R1の頂点を最外装位置Pa(Pa1〜Pa8)として抽出する。言い方を換えれば、外装領域R1は、3DモデルMを収容可能な仮想的な箱であるとも言える。
さらに、携帯型端末1は、最外装位置Paのうち任意の一点(図18及び図19(B)の例では最外装位置Pa1)を基準位置Pbとして、寸法基準情報を3DモデルMに対して相対的に位置決めして表示する。言い換えれば、寸法基準情報は、3DモデルMの寸法の把握を容易に行うために、付随的に表示されるものである。そのため、表示部21において、3DモデルMの視認角度を変化させるなどの操作が行われた場合、寸法基準情報は、3DモデルMの表示態様の変化に同期して表示される。
図19(B)に示すとおり、寸法基準情報は、3DモデルMの外装領域R1を含む範囲で表示可能とされている。具体的には、寸法基準情報は、X方向、Y方向、及びZ方向のそれぞれにおいて、グリッド線Lを配列させる範囲が外装領域R1を含むように表示される。別の言い方をすれば、携帯型端末1は、3DモデルMの仮想的な収容箱として外装領域R1を抽出し、3DモデルMの外形寸法やスケール感を視覚的に把握しやすくなるよう格子状の目安線(グリッド線L)として寸法基準情報を表示させる。
このように、携帯型端末1は、モデル対象のスケール感の把握に必要最小限の範囲(外装領域Rを含む範囲)で寸法基準情報を表示させることができる。言い方を換えれば、携帯型端末1は、3DモデルMを覆うように過度に寸法基準情報(グリッド線L)が表示されて、モデル対象のスケール感の把握を阻害する結果となることを回避することができる。その結果、携帯型端末1は、よりスッキリとしたモデリング画像を表示して、より効率的かつ直観的にスケール感の把握を行い得る。
また、携帯型端末1は、寸法基準情報を、3DモデルMに対して相対的に位置を移動させることができる。例えば、図18の例では、最外装位置Pa1を基準位置として表示されていた寸法基準情報を、図21に示すように、最外装位置Pa6(3DモデルMの背面側下方の位置)を基準位置Pbとして、3DモデルMに対する相対位置を変化させて表示させることができる。
これにより、携帯型端末1は、モデル対象の製品等を配置しようと想定しているスペース、あるいは搬入に要するスペースに対して、モデル対象をどのように配置すればスペースに収まるかなど、ユーザが直感的に把握しやすくなる。
このように、携帯型端末1によれば、例えば、モデル対象の製品等を所定のスペース(空間)に配置する(室内の空きスペースに配置する、あるいは箱に収容するなど)場合、どれほどのスペースが必要であるかをユーザが感覚的に把握しやすくなる。
[第3の実施例]
続いて、図22〜24を参照しつつ、携帯型端末1に表示される3DモデルMの第3の実施例ついて説明する。図22は、表示部21に表示された実機の3DモデルMを示す画面図である。
図22に示すとおり、本実施例の3DモデルMの実機は、第1の実施例に係る実機と同様に、4本の脚102に支持された概略直方体の本体101と、本体101に収容され、本体101の前面に突出するよう動作する板状部材103と、板状部材103を移動するための動力源(図示なし)と、本体101部に設けられ、板状部材103の移動を案内する案内部(図しなし)と、本体101の前面に設けられたインジケータ104とを備える。
また、図22に示すとおり、本実施例の実機は、付属品である上部ボックス107を備えている。言い方を換えれば、本実施形態では、デフォルト製品としての製品本体(本体101、脚102、板状部材103、及びインジケータ104)に加え、付属品として上部ボックス107を備えたモデル対象が三次元3Dモデルとして、3DモデルMが表示部21に表示される。
携帯型端末1の付属情報には、3DモデルMのモデル対象に取り付け可能な付属品に係る情報である付属品情報が含まれている。より具体的に説明すると、「付属品」とはモデル対象の標準製品(製品本体)に対して、ユーザの選択により付随的に取り付け可能とされたもの(例えばオプション製品)である。付属情報には、付属品に係る情報として、付属品の形体情報や表面情報等に係る情報である付属品情報が含まれている。
携帯型端末1は、付属品情報を、上部ボックス107(付属品)がモデル対象(製品本体)に取り付けられた状態を表示する3DモデルMが表示される場合にのみ表示可能とされている。また、携帯型端末1は、付属品が取り付けられた3DモデルMを表示した状態で、寸法基準情報を表示可能とされている。
具体的に説明すると、図24(A)に示すとおり、携帯型端末1は、上部ボックス107(付属品)が取り付けられた状態の3DモデルMの外形において、X方向、Y方向、及びZ方向における最も外側となる位置を抽出する。また、携帯型端末1は、上部ボックス107(付属品)が取り付けられた状態の3DモデルMの最も外側を含む範囲を外装領域R2として抽出する。
言い方を換えれば、携帯型端末1は、製品本体をモデル対象とした場合の3DモデルMにおける外装領域R1に対して、製品本体に付属品(上部ボックス107)が取り付けられて外形が拡大した状態の3DモデルMでは、外形の拡大に伴って外装領域Rを拡張させた状態(外装領域R2)で表示することができる。
さらに、図24(A)に示すとおり、携帯型端末1は、製品本体に付属品(上部ボックス107)が取り付けられた状態の3DモデルMの外形において、X方向、Y方向、及びZ方向における最も外側となる位置を抽出する。また、携帯型端末1は、製品本体及び付属品を含む3DモデルMの最も外側となる位置を含む範囲を外装領域R2として抽出し、外装領域R2の頂点を最外装位置Pa(Pa1〜Pa8)として抽出する。
また、図23及び図24(B)に示すとおり、寸法基準情報は、上部ボックス107(付属品)がモデル対象に取り付けられた状態を表示する3DモデルMの外装領域R2を含む範囲で表示される。具体的には、寸法基準情報は、X方向、Y方向、及びZ方向において、グリッド線Lが配列される範囲が、外装領域R2を含むように表示される。
さらに、携帯型端末1は、最外装位置Paのうち任意の一点(図23及び図24(B)の例では最外装位置Pa1)を基準位置Pbとして、寸法基準情報を3DモデルMに対して相対的に位置決めして表示する。なお、第2の実施例と同様に、携帯型端末1は、寸法基準情報を表示させる基準となる基準位置Pbを、最外装位置Pa1から他の最外装位置Paへと変更して表示させることができる。
このように、携帯型端末1によれば、付属品の追加を検討するユーザに対して、事前にモデル対象の製品を配置しようとするスペースに付属品が取り付けられた状態で配置可能であるか否か、事前に判断することができる。すなわち、製品を配置しようと予定しているスペースに対して、三次元方向の付属品の取り付け可否を事前に判断することができる。
なお、携帯型端末1は、第1の実施例で説明したとおり、3DモデルMを本体101に板状部材103が収容された状態と、本体101から板状部材が突出した状態とで遷移するよう表示可能とされている。携帯型端末1は、このような3DモデルMの扉部材105の開閉動作を表示させる場合、開状態及び閉状態の遷移の前後を通じて、寸法基準情報を表示させてもよい。
さらに、携帯型端末1は3DモデルMの形体情報を有しているため、記憶部23は3DモデルMの外形寸法を記憶している。したがって、携帯型端末1では、3Dモデルの実機を配置予定の場所の寸法がわかれば、3Dモデルの実機が配置可能か否かを判定できる。さらに、携帯型端末1に当該配置予定の場所の寸法を入力装置16のカメラで撮影し、AR技術を用いて3Dモデルの実機が配置可能か否かを判定してもよい。
さらに、携帯型端末1では、3Dモデルの実機を配置するまでのルートがわかれば、3Dモデルの実機が配置予定の場所まで搬入可能か否かを判定できる。さらに、携帯型端末1に当該配置予定の場所までのルートの各箇所の寸法を入力装置16のカメラで撮影し、AR技術を用いて3Dモデルの実機が配置予定の場所まで搬入可能か否かを判定してもよい。
さらに、上述の実施例における携帯型端末1の操作は、操作ログとして管理サーバSに送信される。管理サーバSは、大量の操作ログを記憶して蓄積おり、管理サーバSの備える人工知能は、大量の操作ログから携帯型端末1の操作に関して分析を行う。
上述のように、本実施例において、表示部21は、3DモデルMの特性を示すために、3DモデルMを操作することで実機さながらの挙動を表示することができる。従来は、例えば、外装パネルに筐体を囲まれた機械装置を表示装置に表示する際に、その筐体の内部構造は別途、3Dデータが無ければ視認することができなかった。しかし、本実施形態に係る3Dモデル表示アプリでは外装パネルを移動させたり、あるいは外装パネルを拡大していくことで外装パネルを透過して内部の構造を見せることができるプログラムが組み込まれていてもよい。
このようにすれば、本実施形態に係る3Dモデル表示アプリを営業ツールとして使用すると、このツールを使って営業活動を行うユーザは、実機さながらの動作を携帯型端末1上で表示すことができ、その機械装置の持つ特性や特色を画面に操作しながら自在に示すことができる。特に、3Dモデルの操作は、タッチパネルにより行うことができるため、携帯型端末1を扱うユーザは、アフォーダンスを与えられ、あたかもモデル対象である現実の製品を操作しているような感覚を受けるようになる。
また、本実施形態に係る携帯型端末1では、表示部21に表示される3DモデルMを容易に操作することができるため、機械装置の購入を検討する者が、このアプリによる携帯型端末1において3DモデルMを見ることで、実機さながらに動作する3DモデルMの特に興味を持っている部分を繰り返し操作するなどして、購入に向けて知り得たい情報を自らの意思で得ることができ、購買意欲を喚起することができる。
さらに、営業担当者がユーザとして操作した操作ログ、顧客がユーザとして操作した操作ログ等から、3DモデルM対象である機械装置の売買が成立した場合に、操作ログの中から人工知能により、操作パターンの特徴的な部分を収集し、機械装置の売買が成約に関連すると推察される操作ログを取得することができる。
そのような操作ログを営業担当者である複数のユーザが共有することにより、当該機械装置の販売活動を円滑に行うことができる。特に、営業成績の悪い営業担当者であっても機械装置の見せ方の参考として、当該操作ログを利用することで、売買が成約する確率を高めることができる。
さらに、ユーザごとの操作ログの集合から、人工知能が、行動分析、心理分析を行うようにしてもよい。例えば、機械装置のどの部分に興味が引かれるかという行動分析をしたり、特定の操作がユーザの興味を失いやすいという心理分析をすることができる。
また、携帯型端末1の表示部21に機械装置の付属品群を提示するためのボタン111またはアイコン112として並べるようにしてもよい。当該ボタン111またはアイコン112をタッチした時にはそこに表記されている付属品が機械装置の3DモデルMに付加して表示することができ、また、再度アイコン112にタッチすると、付属品装置が非表示となるようにしてもよい。
そのようにすれば、例えば、同一の付属品において表示、非表示が繰り返されることで、ユーザが付属品に興味を持っていることが判断できる。これを用いて営業マンは、いくつかの付属品ボタン111が表示された中からどの付属品ボタン111にお客様が最もタッチしたのかを記憶して、お勧めアイテムとして今後の営業活動の重要アイテムとしてお客様への売り込みを行っていくことができる。
ただし、人の直感は環境や体調や気持ちの状態に寄って変わることも多く、直感でお客様のお気に入り付属品だと思ったものが、実は違っていたりすることもある。そこで、人工知能を用いて人気の高い付属品の判断をすれば、お客様の行動を分析することで本当に欲しいという思惑があって操作していたものがどの付属品なのかを明確に導き出すことが出来る。すなわち、人工知能を使って人の勘に頼らずにお客様の隠れた想いを導き出すことができるようになる。
AIによる分析作業は、管理サーバSの作業者よって分析されてもよい。ただし、3DモデルMの操作は、複雑で大量の操作ログの分析が必要となる。したがって、AIにより作業者を必要としないで分析することが望ましい。
本実施例において、インジケータ104は、板状部材103(可動部)の動作に対応して点灯または消灯する例を示した。しかし、インジケータ104は、消灯ボタン111または点灯ボタン111を別途、表示部21に表示させ、可動部の動きとは別に点灯または消灯を選択できるようにしてもよい。
その場合に、記憶部23は、3DモデルMの動作情報として点灯速度データまたは消灯速度データを記憶しており、インジケータ104の点滅までの時間、消灯までの時間も設定可能とされていてもよい。このようにすれば、例えば、点灯の時間を遅くすることにより高級感を演出することができる。
本実施形態において、インジケータ104は、板状部材103(可動部)の動作に対応して点灯または消灯する形態を例示した。しかし、インジケータ104は、温度、圧力、速度などを指示する指示計であってもよく、可動部の動作状態を図示する図示装置であってもよい。
本発明の特定の実施形態についての上記説明は、例示を目的として提示したものである。それらは、網羅的であったり、記載した形態そのままに本発明を制限したりすることを意図したものではない。数多くの変形や変更が、上記の記載内容に照らして可能であることは当業者に自明である。
本発明に係る携帯型端末および管理サーバは、例えば、企業の営業活動の現場において、3Dモデルのリアルな質感や動作の表示に加え、リアルタイムにモデル対象の詳細な情報を表示し、その操作ログを取得できる。
IN インターネット
1 携帯型端末
2 管理サーバ
20 制御部
21 表示部
22 操作部
23 記憶部
24 通信部
25 認証部
101 本体
102 脚
103 板状部材(可動部)
104 インジケータ
111 各種ボタン(自動動作選択手段等)
M 3Dモデル
IN インターネット

Claims (16)

  1. モデル対象を3次元で可視化し、前記モデル対象の表示状態をリアルタイムに変化させるリアルタイム可視化3Dモデルと前記モデル対象に係る付属情報とを表示可能である表示部と、
    ユーザの操作により、前記表示部に表示された前記リアルタイム可視化3Dモデルおよび付属情報の表示状態を変更する複数の操作部と、
    前記表示部および前記操作部を制御する制御部とを含むことを特徴とする、携帯型端末。
  2. 前記モデル対象は可動部を備え、
    前記表示部は、タッチパネルディスプレイを含むことにより、前記操作部として機能し、
    ユーザが指先を前記タッチパネルディスプレイに接触させて操作することで、前記リアルタイム可視化3Dモデルの前記可動部が動作する、請求項1に記載の携帯型端末。
  3. 前記モデル対象は可動部を備え、
    前記操作部は、前記前記リアルタイム可視化3Dモデルにおける前記可動部を自動的に所定の動作をさせる自動動作選択手段を有し、
    前記自動動作選択手段が操作されることにより、前記リアルタイム可視化3Dモデルの前記可動部が自動的に所定の動作する、請求項1または2に記載の携帯型端末。
  4. 前記モデル対象は点灯または消灯するインジケータを備え、
    前記操作部は、前記リアルタイム可視化3Dモデルにおける前記インジケータを点灯させる点灯選択手段または消灯させる消灯選択手段を有し、
    前記点灯部が選択されることにより、前記リアルタイム可視化3Dモデルの前記インジケータが点灯し、
    前記消灯部が選択されることにより、前記リアルタイム可視化3Dモデルの前記インジケータが消灯する、請求項1〜3のいずれか一項に記載の携帯型端末。
  5. 前記付属情報は、前記リアルタイム可視化3Dモデルに係る付属品一覧、価格表、仕様表、動画、音声、注意文の少なくともいずれか1つの情報を含む、請求項1〜4のいずれか一項に記載の携帯型端末。
  6. 前記操作部が操作された操作情報を取得する管理サーバに接続され、さらに、ユーザを認証する認証部を備え、
    ユーザを認証し、ユーザごとに前記操作情報を記憶する、請求項1〜5のいずれか一項に記載の携帯型端末。
  7. 前記付属情報は、前記リアルタイム可視化3Dモデルの寸法を把握するための寸法基準情報を含み、
    前記表示部は、前記寸法基準情報を前記リアルタイム可視化3Dモデルと共に表示可能である、請求項1〜6のいずれかに記載の携帯型端末。
  8. 前記表示部に構成される前記リアルタイム可視化3Dモデルを表示する仮想空間において、前記リアルタイム可視化3Dモデルの三次元方向の最も外側を含む三次元の箱状の領域を外装領域とし、
    前記寸法基準情報は、前記リアルタイム可視化3Dモデルに対して前記外装領域の一点を基準位置として相対的に位置決めして表示する、請求項7に記載の携帯型端末。
  9. 前記寸法基準情報は、前記リアルタイム可視化3Dモデルに対して相対的に位置を移動させることができる、請求項7または8に記載の携帯型端末。
  10. 前記表示部に構成される前記リアルタイム可視化3Dモデルを表示する仮想空間において、前記リアルタイム可視化3Dモデルの三次元方向の最も外側を含む三次元の箱状の領域を外装領域とし、
    前記寸法基準情報は、前記リアルタイム可視化3Dモデルの前記外装領域を含む範囲で表示可能である、請求項7〜9のいずれかに記載の携帯型端末。
  11. 前記付属情報は、前記リアルタイム可視化3Dモデルの前記モデル対象に取り付け可能な付属品に係る情報である付属品情報を含み、
    前記付属品情報は、前記付属品が前記モデル対象に取り付けられた状態を表示する前記リアルタイム可視化3Dモデルが表示される場合にのみ表示可能である、請求項1〜10のいずれかに記載の携帯型端末。
  12. 前記付属品が前記モデル対象に取り付けられた状態を表示する前記リアルタイム可視化3Dモデルを表示した状態で、前記寸法基準情報を表示可能である、請求項11に記載の携帯型端末。
  13. 前記表示部に構成される前記リアルタイム可視化3Dモデルを表示する仮想空間において、前記リアルタイム可視化3Dモデルの三次元方向の最も外側を含む三次元の箱状の領域を外装領域とし、
    前記寸法基準情報は、前記付属品が前記モデル対象に取り付けられた状態を表示する前記リアルタイム可視化3Dモデルの前記外装領域を含む範囲で表示可能である、請求項11または12に記載の携帯型端末。
  14. 請求項1〜13のいずれか一項に記載の携帯型端末に接続される管理サーバであって、
    前記操作部が操作された操作情報を取得することを特徴とする、管理サーバ。
  15. さらに、人工知能を備え、
    前記人工知能は、取得された前記操作情報に基づいて、前記操作部の最適な操作方法を構築する、請求項14に記載の管理サーバ。
  16. 前記携帯型端末は、GPS機能を備え、
    前記GPS機能により前記携帯型端末の所有者の移動情報を取得する、請求項14または15に記載の管理サーバ。

JP2020535832A 2018-08-10 2019-08-07 携帯型端末および管理サーバ Pending JPWO2020032097A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018150923 2018-08-10
JP2018150923 2018-08-10
PCT/JP2019/031106 WO2020032097A1 (ja) 2018-08-10 2019-08-07 携帯型端末および管理サーバ

Publications (1)

Publication Number Publication Date
JPWO2020032097A1 true JPWO2020032097A1 (ja) 2021-10-28

Family

ID=69415539

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020535832A Pending JPWO2020032097A1 (ja) 2018-08-10 2019-08-07 携帯型端末および管理サーバ

Country Status (3)

Country Link
EP (1) EP3836092A4 (ja)
JP (1) JPWO2020032097A1 (ja)
WO (1) WO2020032097A1 (ja)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0554112A (ja) * 1991-08-21 1993-03-05 Omron Corp 電子カタログシステム
JPH07296196A (ja) * 1994-04-21 1995-11-10 Nippon Telegr & Teleph Corp <Ntt> 透視投影図のカメラパラメータ算出方法とその装置
JP2001028012A (ja) * 1999-07-14 2001-01-30 Sekisui House Ltd Cg画像を用いた照明器具の表示方法
JP2002312694A (ja) * 2001-01-24 2002-10-25 Sony Computer Entertainment Inc 電子商取引システム、商品購入支援装置及び方法
JP2003346014A (ja) * 2002-05-22 2003-12-05 Yappa Corp 3d画像による商品見積り支援システム
JP2013084241A (ja) * 2011-09-30 2013-05-09 Canon Marketing Japan Inc 情報処理装置、情報処理装置の制御方法、及びプログラム
JP2015531907A (ja) * 2012-07-19 2015-11-05 ヴァッツ ゴウラヴVATS, Gaurav 現実的かつ拡張デジタルオブジェクトの表示と相互作用体験を提供するためのユーザ制御3dシミュレーション
US20160147233A1 (en) * 2014-11-20 2016-05-26 Honda Motor Co., Ltd. System and method for remote virtual reality control of movable vehicle partitions
JP2016136376A (ja) * 2015-01-14 2016-07-28 株式会社リコー 情報処理装置、情報処理方法及びプログラム
JP2017120629A (ja) * 2015-12-29 2017-07-06 ダッソー システムズDassault Systemes ソーシャルコラボレーションによる製品のパーソナライジング

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8797327B2 (en) * 2006-03-14 2014-08-05 Kaon Interactive Product visualization and interaction systems and methods thereof
JP6158223B2 (ja) 2012-01-11 2017-07-05 ウルトラ−デー・コーペラティーフ・ユー・アー モバイル表示装置
US10445798B2 (en) * 2014-09-12 2019-10-15 Onu, Llc Systems and computer-readable medium for configurable online 3D catalog
JP6642101B2 (ja) 2016-02-26 2020-02-05 カシオ計算機株式会社 作業管理装置及びプログラム

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0554112A (ja) * 1991-08-21 1993-03-05 Omron Corp 電子カタログシステム
JPH07296196A (ja) * 1994-04-21 1995-11-10 Nippon Telegr & Teleph Corp <Ntt> 透視投影図のカメラパラメータ算出方法とその装置
JP2001028012A (ja) * 1999-07-14 2001-01-30 Sekisui House Ltd Cg画像を用いた照明器具の表示方法
JP2002312694A (ja) * 2001-01-24 2002-10-25 Sony Computer Entertainment Inc 電子商取引システム、商品購入支援装置及び方法
JP2003346014A (ja) * 2002-05-22 2003-12-05 Yappa Corp 3d画像による商品見積り支援システム
JP2013084241A (ja) * 2011-09-30 2013-05-09 Canon Marketing Japan Inc 情報処理装置、情報処理装置の制御方法、及びプログラム
JP2015531907A (ja) * 2012-07-19 2015-11-05 ヴァッツ ゴウラヴVATS, Gaurav 現実的かつ拡張デジタルオブジェクトの表示と相互作用体験を提供するためのユーザ制御3dシミュレーション
US20160147233A1 (en) * 2014-11-20 2016-05-26 Honda Motor Co., Ltd. System and method for remote virtual reality control of movable vehicle partitions
JP2016136376A (ja) * 2015-01-14 2016-07-28 株式会社リコー 情報処理装置、情報処理方法及びプログラム
JP2017120629A (ja) * 2015-12-29 2017-07-06 ダッソー システムズDassault Systemes ソーシャルコラボレーションによる製品のパーソナライジング

Also Published As

Publication number Publication date
WO2020032097A1 (ja) 2020-02-13
EP3836092A1 (en) 2021-06-16
EP3836092A4 (en) 2021-12-22

Similar Documents

Publication Publication Date Title
KR101687689B1 (ko) 캐릭터 표시용 데이터의 생성 장치 및 방법
US10049493B1 (en) System and methods for providing interaction with elements in a virtual architectural visualization
US20130179841A1 (en) System and Method for Virtual Touring of Model Homes
CN112219229A (zh) 优化的头像资产资源
EP3217258B1 (en) Method and system for editing scene in three-dimensional space
KR100895979B1 (ko) 가상현실 기반 프로토타입을 이용한 모바일 장치의 디자인평가 시스템 및 방법
JP2012138087A (ja) オーサリングシステムによる再生可能なシーンの生成
US11144991B2 (en) Cognitive assessment system
US20230325068A1 (en) Technologies for virtually trying-on items
US20140207606A1 (en) Product design system
CN110402426A (zh) 图像处理装置、方法及程序
TWI503778B (zh) 金融看盤報價視圖自訂資訊組合之裝置及方法
Nam et al. User experience-and design-oriented virtual product prototyping system
JPWO2020032097A1 (ja) 携帯型端末および管理サーバ
US9483878B2 (en) Contextual editing using variable offset surfaces
Niccolò et al. Designing natural gesture interaction for archaeological data in immersive environments
Jo et al. Design evaluation system with visualization and interaction of mobile devices based on virtual reality prototypes
JP3851014B2 (ja) 有効視野範囲検証装置、有効視野範囲検証方法及びコンピュータ読み取り可能な記録媒体
Bahar Representation of thermal building simulation in virtual reality for sustainable building
KR102616505B1 (ko) 사용자 행동 기반의 실감 학습 콘텐츠 제공 방법
Dubois et al. Beyond user experimentation: notational-based systematic evaluation of interaction techniques in virtual reality environments
Nemire Enhancing cockpit design with an immersive virtual environment rapid prototyping and simulation system
CN116149537A (zh) 基于滑动手势的移动和视角控制的方法、装置和存储介质
Fontana Molecular manipulation in augmented reality: A user experience design applied research on new paradigms of interaction.
WO2023218247A1 (en) Virtual collaboration and presentation system

Legal Events

Date Code Title Description
AA64 Notification of invalidation of claim of internal priority (with term)

Free format text: JAPANESE INTERMEDIATE CODE: A241764

Effective date: 20210525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210708

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231228