JP2024077001A - 拡張現実の画像内でのオブジェクト組み合わせの認識方法 - Google Patents

拡張現実の画像内でのオブジェクト組み合わせの認識方法 Download PDF

Info

Publication number
JP2024077001A
JP2024077001A JP2023197758A JP2023197758A JP2024077001A JP 2024077001 A JP2024077001 A JP 2024077001A JP 2023197758 A JP2023197758 A JP 2023197758A JP 2023197758 A JP2023197758 A JP 2023197758A JP 2024077001 A JP2024077001 A JP 2024077001A
Authority
JP
Japan
Prior art keywords
objects
processor
information
inspection
adjacent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023197758A
Other languages
English (en)
Inventor
顔武雄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Visual Fun Co Ltd
Original Assignee
Visual Fun Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Visual Fun Co Ltd filed Critical Visual Fun Co Ltd
Publication of JP2024077001A publication Critical patent/JP2024077001A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)

Abstract

【課題】カメラ及びプロセッサを用いて拡張現実のインタラクションを行う際、画像における少なくとも1つのオブジェクトを認識するための方法を提供する。【解決手段】少なくとも1つのオブジェクトは、内容情報及び演算方向情報を含み、演算方向情報は、検査方向、再検査方向、又はこれらの組み合わせを含む。方法は、第1再検査ステップを含み、第1再検査ステップは、プロセッサによって少なくとも1つのオブジェクトのうちの一方の検査方向及びその隣接する少なくとも1つのオブジェクトのうちのいずれかの一方の再検査方向がペアリング関係を満たすかを検査することを含む。ペアリング関係を満たす場合、プロセッサが少なくとも1つのオブジェクト及び少なくとも1つのオブジェクトのいずれかの一方の内容情報を処理して演算結果を生成する。【選択図】図1

Description

本発明は、拡張現実のインタラクションを行う際、画像内における2つ以上のオブジェクトを安定的に組み合わせる方法に関する。
従来技術
拡張現実技術の進化に伴い、ますます多くのアプリケーションシナリオが開発および利用されている。そのうち、拡張現実カードゲームは新しい形態のインタラクション方法となり、通常、拡張現実機能をサポートするモバイルデバイスを使用してカードのパターンを検出し、それに対応する拡張現実情報を提供する。しかし、従来技術では、モバイルデバイスのカメラが2枚以上のカードパターンの組み合わせを同時に検出する場合、検出が不安定になることがある。
本発明の実施例は、カメラ及びプロセッサを用いて画像における少なくとも1つのオブジェクトを認識する方法を提供し、少なくとも1つのオブジェクトは、内容情報及び演算方向情報を含み、演算方向情報は、検査方向、再検査方向、又はこれらの組み合わせを含む。当該方法は、第1再検査ステップを含み、第1再検査ステップは、プロセッサによって少なくとも1つのオブジェクトのうちの一方の検査方向及びその隣接する少なくとも1つのオブジェクトのうちのいずれかの一方の再検査方向がペアリング関係を満たすかを検査することを含む。ペアリング関係を満たす場合、プロセッサが少なくとも1つのオブジェクト及び少なくとも1つのオブジェクトのいずれかの一方の内容情報を処理して演算結果を生成する。
本発明の実施例は、カメラ及びプロセッサを用いて画像におけるオブジェクトを認識する方法を提供する。オブジェクトのうちのいずれかの一方は、内容情報及び方向情報を含み、方向情報は、第1方向及び第2方向を含む。当該方法は、ステップA、ステップB、ステップC及びステップDを含み、ステップAは、オブジェクトのうちの一方の第1方向においてオブジェクトの他方が隣接し、且つオブジェクトの第2方向において他のオブジェクトが隣接していない場合、プロセッサがオブジェクトに対応する集合情報を生成してオブジェクトの内容情報を集合情報に格納する。当該方法は、更に、オブジェクトを参照オブジェクトとして決定することを含む。ステップBは、参照オブジェクトの第1方向において参照オブジェクト以外のオブジェクトのうちのいずれかの一方が隣接している場合、プロセッサがオブジェクトのうちのいずれかの一方をフォローオブジェクトとして標記し、ステップCを実行することと、参照オブジェクトの第1方向においてオブジェクトが隣接していない場合、ステップDを実行することとを含む。ステップCは、プロセッサがフォローオブジェクトの第2方向において参照オブジェクトが隣接していると判断した場合、プロセッサがフォローオブジェクトの内容情報を集合情報に格納し、フォローオブジェクトを参照オブジェクトとして決定することと、ステップBを実行することとを含む。ステップDは、プロセッサが集合情報を処理して演算結果を生成することを含む。
本発明の実施例は、カメラ及びプロセッサを用いて画像における少なくとも1つのオブジェクトを認識するための拡張現実のインタラクション方法を提供する。オブジェクトは、内容情報及び演算方向情報を含む。演算方向情報は、検査方向、再検査方向、又はこれらの組み合わせを含む。インタラクション方法は、ステップM、ステップQ、及びステップRを含む。ステップMは、内容情報、演算方向情報、又はプロセッサの少なくとも1つのオブジェクトに対する処理演算後の結果を格納するための集合情報を提供することを含む。ステップQは、プロセッサが認識した画像におけるオブジェクトが複数であり、且つオブジェクトのうちの2つのうちの一方の検査方向において複数のオブジェクトのうちの2つのうちの他方が隣接し、且つオブジェクトのうちの2つのうちの一方の検査方向とオブジェクトのうちの2つのうちの他の再検査方向が互いに逆方向である場合、プロセッサがオブジェクトのうちの2つの内容情報を集合情報に格納することを含む。ステップRは、プロセッサが集合情報を送信して演算結果を生成することを含む。
本発明の実施例は、本発明の実施例は、カメラ及びプロセッサを用いて画像における少なくとも1つのオブジェクトを認識するための拡張現実のインタラクション方法を提供する。オブジェクトは、内容情報及び演算方向情報を含む。演算方向情報は、検査方向、再検査方向、又はこれらの組み合わせを含む。当該方法は、ステップP、ステップQ'、及びステップRを含む。ステップPは、プロセッサが画像における少なくとも1つのオブジェクトの数が1であると認識した場合、プロセッサが少なくとも1つのオブジェクトの内容情報をオブジェクトに対応する集合情報に格納することを含む。ステップQ'は、
プロセッサが画像における少なくとも1つのオブジェクトの数が複数であると認識し、且つ複数のオブジェクトのうちの2つが互いに隣接し、複数のオブジェクトのうちの2つのうちの一方の検査方向において複数のオブジェクトのうちの2つのうちの他方が隣接し、且つ複数のオブジェクトのうちの2つのうちの一方の検査方向と複数のオブジェクトのうちの2つのうちの他方の再検査方向が互いに逆方向である場合、プロセッサが複数のオブジェクトのうちの2つの内容情報を集合情報に格納することを含み、ステップRは、プロセッサが集合情報を送信して演算結果を生成することを含む
以下図面を参照して本発明の実施例を説明する。なお、当該技術分野の標準的な慣行に従って、多くの特徴について比例に表示されず、単に説明のための例示である。また、本開示の特徴を明確に示すために、要素の寸法を任意に拡大または縮小する場合がある。
本発明の一実施例の方法のフローチャートである。 方法のフローチャートである。 実際の利用方法の概念図である。 本発明の一実施例に係る様々な隣接するオブジェクトの概念図である。 本発明の実施例いくつかのオブジェクトの配列エラー時の概念図である。 本発明の実施例いくつかのオブジェクトの配列エラー時の概念図である。 本発明の一実施例のオブジェクトの配置時の3D画像の概念図である。 使用者と3Dオブジェクトがインタラクションを行う概念図である。 本発明の実施例のいくつかのオブジェクト配列時の概念図である。 本発明の実施例のいくつかのオブジェクト配列時の概念図である。 本発明の一実施例の多角形オブジェクトの概念図である。 本発明の一実施例の方法の概念図である。 本発明の一実施例の方法の概念図である。 本発明の一実施例による方法を利用した一例の概念図である。 本発明の他の実施例による方法を利用した一例の概念図である。 本発明の他の実施例による方法を利用した一例の概念図である。 武器カード又はエネルギーカードをキャラクタカードに装備する時の概念図である。 本発明の一実施例の方法のフローチャートである。
以下、多くの実施形態又は実施例を示して互いに異なる特徴について説明する。以下に述べる具体的な素子及びその配列に関する実施例は、本発明を説明するためのものである。なお、これらの実施例は、例示のためのものであり、本発明の範囲を限定するためのものではない。更に、異なる実施例において、重複する符号及び表記する使用する場合があるが、これらの重複は、本発明を簡単且つ明確に述べるためのものであり、説明される異なる実施例及び/又は構造間の特定関係を表すためのものではない。
上記の2枚以上のカードパターンの組み合わせを同時に検出する時に不安定になるという問題を解決するために、本発明の一実施例は、当該問題を解決するための方法100を提供する。図1は、本発明の一実施例の方法100のフローチャートである。方法100は、例えば、撮影装置で撮影した2Dのオブジェクトを画像とし、3Dで表示装置に表示させる。一実施例において、方法100は、例えば、教育学習等に用いられる。例えば、革新的な仮想と現実のインタラクションメカニズムを使用することで、教育学習に対する人々のモチベーションを向上させることができる。更に、インタラクション過程及び視覚印象を介して学習の記憶力を深めることができる。この適用範囲は、言語、言葉、ピンイン、自然科学、数学公式、地理等を含んでもよいが、これに限定されない。そして、方法100を、例えばカードボードゲーム、キャラクタ対戦ゲーム、公共人物のキャラクタ開発等のエンターテイメント等に適用することで、ゲームの仮想キャラクタや公共人物のブランド拡張に貢献し、ブランド価値を向上させることができる。
先ず、ステップ101において、オブジェクト(例えば文字カード)を2Dの画像に撮影する。ここで、オブジェクトは、例えば、カードであってもよく、又はその他の画像情報を有するオブジェクトであってもよい。一実施例において、様々な撮影装置を使用して撮影してもよい。例えば携帯電話、カメラ、ARメガネ、MRメガネ、タブレット、ノートパソコン等の撮影装置を有するデバイスで撮影してもよい。さらに詳しく説明すると、本発明は、ARKitまたはARCoreをサポートするiOS/Androidデバイスを使用して実施してもよい。
ステップ102において、撮影した2D画像と作成された3Dシーンとを整合する。ステップ103において、整合する時に、アルゴリズムにより、撮影した2D画像を3Dシーンにおける座標位置に変換してもよい。例えば、アルゴリズムにより、前記座標の「軸方向」及び「距離」を判断してもよいが、この情報を集合情報と称する。次に、ステップ104において、この集合情報の第1結果を表示する。ステップ105において、前記集合情報が組み合わせの原則を満たすかを判断する。組み合わせの原則を満たす場合、ステップ106において、第2結果を表示する。例えば、対応する3D資料をモバイル装置のスクリーンに送信してもよい。満たさない場合、ステップ104に戻って再度判断する。一実施例において、集合情報は、内容情報、演算方向情報、またはプロセッサのオブジェクトに対する処理演算後の結果等の情報を保存するために使用されてもよい。
以下、実施例を参照しながら方法100におけるステップ105の詳細を説明する。例えば、図2は、方法110のフローチャートであり、ステップ105の詳細を表す。図3は、実際の利用方法110の概念図である。例えば、「C」、「A」、「R」文字カードを順次に配列した場合、車両の3D画像を生成することができる。第3(A)において、C文字カードを配置し、且つ撮影裝置及びプロセッサを用いて各文字カードの内容情報(例えば、後述する検査方向、再検査方向等)を認識する。次に、図3(B)において、A文字カードを配置するが、この時、方法110はステップ111に進み、第1検査ステップを実行して第1検査結果を生成する。一実施例において、第1検査ステップは、プロセッサを用いてC文字カードの検査方向においてその他の文字カードが隣接するかを検査することを含む。
一実施例において、検査方向を、文字カードが正しく配置された時の右側と定義してもよいが、これに限らない。一実施例において、検査方向は、英語単語の読み方向、中国語単語の読み方向、キャラクタオブジェクトの裝備スロットの配置位置又はその組み合わせであってもよい。例えば、オブジェクトとオブジェクトとの間に関連性を有する場合、この方法を使用することができる。この方法をボードゲームに適用してもよい。例えば、「キャラクタオブジェクト」がオブジェクトにおいてキャラクタ背部の位置又は方向を示す場合、「バックパックオブジェクト」を装備してもよい。「バックパックオブジェクト」の後側(backside)には、「水筒オブジェクト」を装備してもよい。この例では、キャラクタ及びバックパックの後側方向が検査方向となる。
なお、この時、C文字カードとA文字カードとの距離が十分に近くないため、ステップ111において判断された第1検査結果は「いいえ」となり、演算を停止し、演算結果を生成する。例えば、画像表示ステップを実行して表示装置で内容情報を表示する。例えば、ARスクリーン裝置(例えば携帯電話、タブレット、ARメガネ等を含む)を使用してC文字カードとA文字カードの上にそれぞれ文字「C」と「A」の3D画像を形成する。次に、図3(C)に、更に、R文字カードを加えるが、この時、R文字カードとその他の文字カードの距離も十分に近くないため、ステップ111の判断結果も「いいえ」となり、同様に、R文字カードの上に文字「R」の3D画像を形成する。本発明の実施例に係る方法100は、カメラの可視範囲内で10個以上の画像認識組み合わせを追跡(Track)することができる。。
次に、図3(D)において、A、R文字カードの距離を近づける。この時、ステップ111において、A文字カードの検査方向において隣接するR文字カードがあるかを判断し、第1検査結果が「はい」となる。この時、方法110はステップ112に進み、プロセッサは、A文字カードの再検査方向にその他の文字カードが隣接しているかを検査し、第2検査結果を生成する。一実施例において、再検査方向を、文字カードが正しく配置された時の左側に定義してもよいが、これに限らない。この時、A文字カードの左側に、C文字カードが隣接していないため、第2検査結果は「いいえ」となる。第2検査結果が「はい」である場合、ステップ111に戻り、他の文字カードを判断する。例えば、図3(E)において、A文字から判断を開始する場合、ステップ112で、A文字カードの左側にC文字カードが隣接していると判断するため、C文字カードに対して再度ステップ111を実行する。
なお、ここで、隣接とは、2つのオブジェクト(文字カード)が必ずしも完全に付着していることを表すものではない。一実施例において、第1再検査ステップが検査を実行する際に許容値を有し、且つオブジェクトが複数のある場合、前記隣接は、オブジェクトの検査方向と他のオブジェクトの再検査方向の、仮想平面または仮想立体空間内でのピッチが許容値内にあることを意味する。一実施例において、許容値は、距離許容値を含んでもよく、前記2つのオブジェクトの距離は、距離許容値内にあってもよい。設定された許容値を超える場合、演算を続行しないため、パフォーマンスリソースを節約することができる。
前記の距離は、隣接する2つのオブジェクトの中心に基づいて計算してもよく、2つのオブジェクト間の最短距離に基づいて計算してもよく、又は2つのオブジェクトにおける予め設定された距離測定基準点に基づいて計算してもよい。一実施例において、前記距離許容値は、0~5cmであってもよく、例えば、複数のオブジェクトのいずれか一方の縁部と複数のオブジェクトの他方との最短距離が5cm未満であってもよいが、これに限らない。一実施例において、必要に応じて他の距離許容値(例えば、10cm未満)を有してもよい。例えば、2つのオブジェクトのうちの一方の内容情報がカードゲームにおける魔法球や護符等である場合、当該護符又は魔法球が表示装置に表示された後、他方のオブジェクトに一定距離「移動」又は「方向付け(Orient)」する。一実施例において、図16を参照すると、例えば、図16(A)、(B)におけるエネルギーカード303とキャラクタカード301とが組み合わせる場合、エネルギーカードの3Dオブジェクトは、キャラクタカードに向かって方向性をもって移動する。また、図17に示すように、装備カード304又はエネルギーカード303が距離許容値範囲内にある場合、その3Dオブジェクトは、方向性をもってキャラクタカード301に向かって移動する。一実施例において、距離許容値が異なる範囲内にある場合、例えば動画等の対応する結果を生成する。例えば、2つのオブジェクトの距離許容値が0~5cmである場合、5~10cmである場合、10~15cmである場合、プロセッサは、それぞれ異なる演算結果を生成し、多様な結果を達成することができる。
一実施例において、前記許容値は、角度許容値を含んでもよく、この時、検査方向と再検査方向とがペアリング関係を満たすということは、前記両者の夾角が角度許容値内にあることを意味する。例えば、角度許容値は、0度~15度であってもよく、又は80度~110度であってもよいが、これに限らない。他の実施例において、本発明の方法による目的を達成するために、予め任意の角度を設定してもよい。例えば、比較的広い許容値を設定することで、全方向おいて2つのオブジェクト間にペアリング関係を有するようにしてもよい。これにより、使用者に比較的大きい誤りの余地を提供することができる。例えば、複数の距離値を設定することで、2つのオブジェクト間に複数の組み合わせ関係を有するようになる。例えば、2つのオブジェクト間に5~10cmの距離を有する場合、第1組の結果又は動画を生成することができる。2つのオブジェクト間に0~5cmの距離を有する場合、他の組の異なる結果又は動画を生成することができる。このような設定により、オブジェクト自体に加え、更にオブジェクト間の距離により自由度を増加させ、この方法の多様性を高めることができる。
一実施例において、前記角度は、以下の式によって判断する。
前記距離は、以下の式によって判断する。
即ち、2つのオブジェクトの座標間の関係が分かれば、上記の式(1)、(2)で2枚のカード間の距離及び角度を判断することができる。
例えば、図4は、本発明の一実施例の様々な隣接するオブジェクトの概念図である。図4(A)のC、A、R文字カードは、X方向において配列され、概ね同じY座標を有する。図4(B)~図4(E)のC、A、R文字カードもX方向において配列されているが、Y座標は全く同じではない。この場合、検査方向は+X方向で、再検査方向は-X方向であってもよいが、これに限らない。即ち、Y方向において、各文字カード間に、使用者が各文字カードを完全に合わせなくても、所望の画像を表示するように、許容値を有してもよい。
なお、第1検査結果が「はい」であり、且つ第2検査結果が「いいえ」である場合、少なくとも1つのオブジェクトのうちの一方の検査方向において少なくとも1つのオブジェクトのうちの他方が隣接しており、且つ前記少なくとも1つのオブジェクトのうちの一方の再検査方向において少なくとも1つのオブジェクトのうちの他方が隣接していない場合、A文字カードが整列されている文字カードのうちの1枚目であることを表すため、この時、A文字カードを「先頭オブジェクト」と定義してもよい。このように、先頭オブジェクトを有する場合、その他のオブジェクトの比較(階層関係)を行うことができる。例えば、英文字を並べ替える場合、先頭オブジェクトの再検査方向には他のオブジェクトがないため、文頭が先頭オブジェクトになる。しかし、一実施例において、上記の条件を満たさなくても、先頭オブジェクトとすることができる。例えば、先頭オブジェクトは、プロセッサによって認識されるキャラクタオブジェクト、建設基地オブジェクト、または他の変更可能なオブジェクトとして、予め設定された内容情報であってもよい。なお、状況によっては、同時に複数組の隣接するカードを有するように、先頭オブジェクトが複数のであってもよい。一実施例において、先頭オブジェクトを文頭オブジェクト、基地オブジェクト、又はキャラクタオブジェクト等と称してもよい。基地オブジェクトは、その周囲に異なる設施オブジェクトを建設してもよく、キャラクタオブジェクトは、身に異なる装備オブジェクト等を搭載してもよい。
なお、ステップ111における第1検査結果が「否」である場合、即ち、第1時間に文字カードの右側に他の文字カードがないと判断した場合、後続の判断(例えば、継続して左側に他の文字カードがあるかの検査)を行わないため、プロセッサの作動時間を節約することで、演算効率を高めることができる。また、ステップ111において、他のオブジェクト(文字カード)がステップ111の要求を満たすかを継続して検査する。
次に、方法110はステップ113に進む。プロセッサは、文字カードの配置順番に従って第1再検査ステップを実行する。図3(D)を参照すると、この時、プロセッサは、A文字カードの検査方向及びR文字カードの再検査方向がペアリング関係を満たすかを検査する。(システム実行において、前記プロセッサは、A文字カードの右側のカード(即ち、R)に、R文字カードの左側のカードがどれであるかを尋ねる。R文字カードの左側もA文字カードであることが確認された場合、これにより、ペアリング関係を形成しているかを確認する)例えば、「CA」及び「AR」のような配列を、ペアリング関係を満たすと定義してもよい。他の配列方式(例えば「RC」、「RA」等)もペアリング関係を満たすが、データベースにはこのような配置が保存されていないため、比較の結果、データが生成されず、独立したR及びC文字の画像のみ表示する。この時、A文字カード及びR文字カードがペアリング関係を満たすため、プロセッサは、A文字カード及びR文字カードの内容情報を処理し、例えばペアリング成功又はペアリング失敗等の演算結果を生成する。図3(D)におけるA文字カード及びR文字カードは、ペアリング成功の一例であり、ペアリング失敗の一例は、図6(A)に示すように、文字カードの配置が斜めであるか、又は軸方向位置が異なる場合、ペアリング失敗となる。また、A文字カードを参照オブジェクトと設定し、R文字カードをフォローオブジェクトと設定する。なお、ペアリング結果がペアリング関係を満たさない場合、プロセッサは、第1再検査ステップの実行を停止する。一実施例において、配置順番は、少なくとも1つのオブジェクトが属する検査方向に従って配置されて配列される順番、少なくとも1つのオブジェクトが先頭オブジェクトが属する検査方向に従って配置されて配列される順番、又はこれらの組み合わせを含んでもよい。
一実施例において、フォローオブジェクトは、その再検査方向において参照オブジェクトに隣接してもよい。一実施例において、先頭オブジェクトは、第1再検査ステップ又は第1検査ステップを実行し始める開始オブジェクトであってもよく、先頭オブジェクトの検査方向は、プロセッサが少なくとも1つのオブジェクトに対して第1再検査ステップ又は第1検査ステップを実行する方向であってもよい。
一実施例において、プロセッサは、前記ペアリング関係を集合情報に格納することで、当該集合情報に基づいて演算結果を生成する。一実施例において、プロセッサは、格納を実行することがないため、作動効率を高めることができる。一実施例において、ペアリング関係を満たせば、プロセッサは、当該オブジェクトの内容情報(ヌル値でもよい)を更新してもよい。一実施例において、内容情報、検査方向、及び再検査方向は、独立して存在してもよい。即ち、いくつかの状況において、オブジェクトは、内容情報を有さなくてもよいが、複数の演算方向情報を有することができる。例えば、建設基地、キャラクタカード等の複数の演算方向情報のみを有するオブジェクトであってもよい。一実施例において、複数の演算方向は、検査領域(例えば、プロセッサの認識画像における仮想平面、仮想三次元空間又はこれらの組み合わせを含むか、又はオブジェクトの仮想三次元空間におけるX軸、Y軸、Z軸又はこれらの組み合わせ)を含んでもよく、オブジェクトの検査領域内にいずれのオブジェクトを含む場合、第1再検査ステップを実行する。
次に、ステップ114において、プロセッサは、参照オブジェクト(A文字カード)を判定済みオブジェクトに設定し、フォローオブジェクト(R文字カード)を参照オブジェクトに設定する。その後、ステップ115において、この時の参照オブジェクト(R文字カード)の後方に他の文字カードがあるかを判断する第2検査ステップを実行する。即ち、参照オブジェクト(R文字カード)の検査方向に他の文字カードがあるかを判断する。図3(D)の状態の時に、R文字カードの後方には、他の文字カードがないため、ステップ115を通らず、ステップ116に進み、方法110の操作を終了し、演算後の結果を表示する。一実施例において、R文字カードが最後の1枚のカードである場合は、参照オブジェクトとならない。その理由は、プロセッサがいずれかのオブジェクトに対して第1検査ステップを行い、その結果が「いいえ」である場合、演算が直接停止され、R文字カードの第1検査結果が「いいえ」になるためである。そのため、再度ステップ113を実行する必要ないため、演算時にかかるパフォーマンスリソースを節約することができる。
しかし、この時、A文字カードとR文字カードのみ組み合わせられ、完全な単語をなしていないため、この時の演算後の結果は、依然としてA文字カードとR文字カードの3D画像を表示する。
次に、図3(E)において、更にC文字カードを近づける。前記判断のロジックと同様に、ステップ111を通過した後、ステップ112の終了時、C文字カードを先頭オブジェクトと判断し、ステップ113において、A文字カードをフォローオブジェクトと判断する。次に、ステップ114時に、C文字カードを判定済みオブジェクトに設定し、A文字カードを新たな参照オブジェクトに設定し、R文字カードを新たなフォローオブジェクトに設定する。この時のA文字カードの後方にR文字カードがまだあるため、方法110のステップ115時の演算結果は通過(参照オブジェクトの後方に他のオブジェクトがある)となり、ステップ113に戻り、完全な文字列が判断されるまで後続のA及びR文字カードを判断する。一実施例において、複数のオブジェクト配列がある場合、プロセッサは、最後のオブジェクトが判断される(図3(E)におけるR文字カード)までステップ113、114、115を繰り返して実行してもよい。この時、演算を停止すればよく、前記ステップを繰り返して実行する必要がないので、演算時にかかるパフォーマンスリソースを節約することができる。
次に、図3(F)~図3(I)を参照すると、この時のプロセッサは、C、A、R文字カードの順番に配列されていると判断しているため、この時の判断結果(方法100の第2結果) により、元の「C」、「A」、「R」の3D画像が縮小して消えた (図3(F))、車両の3D画像(図3(G)~図3(I))を表示することで、使用者に当該配列が正しいことを知らせる。その後、図3(J)において、R文字カードを遠ざけ、方法110により、「C」「A」が配列方式を満たすと判断されるが、プロセッサが当該配列の単語を認識するこいとができないため、データベースの内容と比較できないため、対応する車両画像が表示されない。しかし、本発明は、これに限らない。例えば、使用者が認識画像におけるいずれかの一方(例えばC、A、R文字カードのいずれかの一方)を取り除いても、プロセッサは、画像における内容情報を認識して表示装置に表示することができる。例えば、R文字カードを取り除いた場合、C、A、R文字カードの上には、車両の立体画像は表示されないが、C、A、Rの3つの文字の立体画像が表示される。なお、この時、使用者は、オブジェクト自身の情報及びオブジェクトに対応する画像を同時に確認することができる。これにより、使用者は、補助画像を使って学習することができる。
方法110において、1つのステップで1つのオブジェクト(文字カード)のみを判断しているため、各オブジェクトのデータを個別に演算することで、パフォーマンスリソースを節約し、表示機能に影響することを回避することができる。
一実施例において、前記内容情報は、モデル情報、立体モデル情報、キャラクタモデル情報、音声情報、デジタルメディア情報、文字(Character)情報、内容認識情報、認証情報、仮想オブジェクト情報、暗号化情報、インタラクション命令情報、又はこれらの組み合わせを含んでもよい。一実施例において、前記内容情報もヌル値であってもよい。一実施例において、内容情報は、使用者とオブジェクトがインタラクションを行うためのインタラクションオブジェクトを含む。例えば、インタラクションオブジェクトは、オブジェクトの表面に印刷されてもよい。例えば、ボードゲームのキャラクタ図にインタラクションオブジェクトを印刷することで、操作する時に、インタラクションオブジェクトを、指で精確に押したりインタラクションしたりする部分とすることができるとともに、特定領域を遮蔽したり、画像認識の効果を実現したりすることもできる。例えば、オブジェクトにおける画像デザインにより、インタラクションを行う方法を実現することができ、キャラクタオブジェクトにおいて特定領域を設定し、使用者が画像を遮蔽する特定領域により、プロセッサが新たな検査画像を判断して、新たな組み合わせのゲームプレイを実現することができる。
一実施例において、前記プロセッサは、汎用プロセッサ、チップマルチプロセッサ(chip multiprocessor、CMP)、専用プロセッサ(dedicated processor)、組み込みプロセッサ(embedded processor)、デジタル信号プロセッサ(digital signal processor,DSP)、ネットワークプロセッサ、入力/出力(input/output,I/O)プロセッサ、メディア アクセス制御(media access control,MAC)プロセッサ、無線ベースバンドプロセッサ(radio baseband processor)、コプロセッサー(co-processor)、複合命令セット コンピュータ(complex instruction set computer,CISC) マイクロプロセッサ、縮小命令セットコンピューティング(reduced instruction set computing,RISC) マイクロプロセッサ、及び/又は超長命(very long instruction word,VLIW) マイクロプロセッサ又はその他のプロセッシングデバイスのマイクロプロセッサ等を含んでもよい。プロセッサは、更にコントローラ、マイクロコントローラ、特定用途向け集積回路(application specific integrated circuit,ASIC)、フィールドプログラマブルゲートアレイ(field programmable gate array,FPGA)、プログラマブルロジックデバイス(programmable logic device、PLD)等を含んでもよい。
図5は、本発明の実施例のいくつかのオブジェクト配列エラー時の概念図である。図5(A)~図5(C)に示すように、C、A、R文字カードがX方向に配列されているが、その配列順番はCARではない。即ち、その階層順番が対応するデータベースのデータと一致しない。このような状況では、ステップ114時の判断結果が「いいえ」となる。従って、図5(D)~図5(F)に示すように、三者の文字カードを近づけても、C、A、R三者の3D文字画像を表示するだけになり、車両は表示されない。
図6は、本発明の実施例のいくつかのオブジェクト配列エラー時の概念図である。このような状況では、文字カードの方向が前記ルールを完全に満たしていない。例えば、検査方向を文字カードの+X方向にと定義し、再検査方向を文字カードの-X方向と定義する。図6(A)に示すように、C文字カードの検査方向においてA文字カードが見つかるが、A文字カードの再検査方向においてはC文字カードが見つからない。そのかわりに、A文字カードの再検査方向(-X方向)においてR文字カードがあり、即ち、2つのオブジェクトがペアリング関係を満たさない。この時、ステップ113の結果は「いいえ」となる。また、図6(B)に示すように、C文字カードの検査方向にはいずれの文字カードもない。A文字カードの検査方向には、C文字カードがあるが、C文字カードの再検査方向にはいずれの文字カードもないため、ペアリング関係を満たさない。この時、ステップ111の結果も「いいえ」となる。従って、図6(C)~図6(E)に示すように、三者の文字カードを近づけても、C、A、R三者の3D文字画像を表示するだけになり、車両は表示されない。
一実施例において、3D文字画像を表示す時に回転することで、使用者が配置位置が正しいかを判断してもよい。例えば、本発明の一実施例のオブジェクトの配置時の3D画像の概念図である。図7(A)~図7(E)に示すように、その配置位置が正しいため、動画表示の開始点及び終了点では、正しい「R」文字を確認することができる。また、図7(F)~図7(J)及び図7(K)~図7(O)に示すように、2つのこのような状況でのR文字カードの配置方向が使用者に正確に向いていないため、動画表示の開始点及び終了点では、正しい「R」文字を確認することができない。そのため、使用者が正しい配置の向きを判断する時に有利になる。
一実施例において、使用者は、ジェスチャーで3Dオブジェクトとインタラクションを行うことができる。前記ジェスチャーは、オブジェクトをカバー、回転、クリック、ダブルクリック、マルチタッチ、移動、タップすることを含んでもよい。スクリーンに3Dオブジェクトインタラクションが表示される時、クリック、ダブルクリック、マルチタッチ(回転を含む)、移動等の操作を含む。インタラクション時に、プロセッサは、当該オブジェクトの内容情報を更新してもよい。例えば、使用者と3Dオブジェクトがインタラクションを行う概念図である。図8(A)に示すように、ジェスチャーで車両のドアを開けることができる。なお、ここでは表示装置としてタブレットコンピュータを用いているが、本発明はこれに限定されない。例えば、携帯電話、ARメガネ、ラップトップ、スクリーン、テレビ等の他のARKitまたはARCoreをサポートするiOS/Android表示装置を使用してもよい。図8(B)において、車両のライトを点灯できる。図8(C)、図8(D)において、車両の色を変更することができる。これにより、使用者がオブジェクトを操作できるようになる。
上記の実施例では、C、A、R文字カードの三者を順番に従って配列して車両の画像を形成したが、本発明は、これに限定されない。例えば、図9は、本発明の実施例のいくつかのオブジェクトの配列時の概念図である。図9(A)~図9(F)に示すように、A、R、C文字カードの三者が順番に従って配列され、これにより「ARC」(弧)の単語が生成され、弧の3D動画を表示することができる。
一実施例において、追加のカードを追加してもよい。例えば、図10は、本発明の実施例のいくつかのオブジェクト配列時の概念図である。図10(A)~図10(D)に示すように、追加でD文字カードを加え、C文字カードと単語「CD」を形成してもよい。図10(E)~図10(J )に示すように、追加で∨、N文字カードを加え、A文字カードと単語「VAN」を形成してもよい。これにより、使用者により多い組み合わせオプションを提供することができる。
なお、上記の実施例は、文字を有する矩形のカードを例示したが、本発明はこれに限定されない。例えば、いずれの多角形のオブジェクトに適用してもよい。図11は、本発明一実施例の多角形オブジェクト200の概念図であり、ここでは、五角形を例として挙げる。一実施例において、多角形オブジェクト200の検査方向は、検査ベクターを含んでもよく、再検査方向は、予め設定された再検査ベクターを含んでもよい。なお、前記検査ベクター及び再検査ベクターは、ペアリング関係、検査ステップ、又は再検査ステップの根拠とするための「方向」及び「大きさ」(ベクターの長さ)の情報を含んでもよい。また、複数のオブジェクトに仮想座標を付与し、複数のオブジェクト間において相対的な位置関係を確立してもよい。ペアリング関係、検査ステップ、又は再検査ステップを判断する根拠としては、例えば、2つのオブジェクトの座標情報の差値に基づいて相対的に距離を計算することで、互いの位置関係を判断してもよい。
図11に示すように、当該オブジェクトの各辺の垂直方向が検査方向、再検査方向、又はその組み合わせであってもよい。例えば、五角形は、5つの辺201、202、203、204、205及びそれぞれ各辺201、202、203、204、205に垂直される5つのベクター211、212、213、214、215を含んでもよい。更に説明すると、ベクター211、212、213、214、215で検査方向、再検査方向を表すと、複数のオブジェクトに軸方向の情報を予め設定し、ベクター211、212、213、214、215で前記検査方向を設定する。これにより、複数の多角形オブジェクト200が互いに配列される場合、前記方法100及び方法110により配列が予め設定された情報を満たすかを判断する。
一実施例において、前記ペアリング関係は、予め設定された検査閾値を指してもよい。例えば、プロセッサが認識可能な誤差許容値を指してもよい。例えば、検査ベクターと再検査ベクターとの差値がゼロであり、つまり、オブジェクトの検査方向とその隣接する他のオブジェクトの再検査方向が反対である場合、互いに「逆方向」である。即ち、同一の大きさ及び反対する方向を有する。しかし、本発明の方法の使用者(例えば子供)が各オブジェクトを斜めに配置することがあるため、前記差値がちょうどゼロではないことがある。また、システムによって与えられ予め設定された検査閾値(又は許容値と称する)は、本発明の方法の使用者体験をより高める。例えば、前記オブジェクトが十分に近い位置(例えば図4(B)~図4(E)の状況時)に配置されると、前記文字カードが互いに隣接していると判断することができる。なお、前記ベクターは、直接オブジェクトにおける複数の軸方向に定義してもよい。これらのベクターを「軸」として定義してもよい。
一実施例において、各オブジェクトの内容情報にそれぞれの検査閾値を有し、且つ互いに異なってもよい。例えば、特定オブジェクトの特定検査方向において、比較広い検査閾値を設定することで、他のオブジェクトを有するより容易に「裝備、取り付け、配置」することができ、ペアリング関係は、プロセッサによって簡単に検査又は再検査することができる。例えば、「建設基地」は、物理的に比較的大きいオブジェクト又はカードであってもよい。また、様々な異なる検査閾値を提供することによって、異なる相対的位置関係で異なる結果が得られる。例えば、2つのオブジェクトが互いに密着又は付着されている場合、プロセッサは、複数の検査閾値のうちの1つを判断することができ、2つのオブジェクトがわずかに離れている場合、プロセッサは、複数の検査閾値のうちの他の1つを判断することができる。一実施例において、検査閾値は、前記オブジェクト(例えば文字カード)のうちのいずれか2つのピッチの数学演算結果、いずれか2つのベクターの数学演算結果、いずれか2つの内容情報の演算結果、またはこれらの組み合わせを含んでもよい。
本発明の他の実施例は、更に、例えば拡張現実のインタラクション方法として、ステップ105の詳細を実行するためにも使用可能な方法120も提供する。図12は、本発明の一実施例の方法120の概念図である。図12に示すように、ステップ121において、各オブジェクトの配列が第1ルールを満たすかを判断する。一実施例において、第1ルールは、そのうちの1つのオブジェクトの第1方向に他のオブジェクトが隣接し、当該オブジェクトの第2方向にいずれのオブジェクトも隣接していないかを判断することを含んでもよい。例えば、図3(D)に示すように、この時、第1方向は、文字カードの右側であり、第2方向は、文字カードの左側であってもよい。この時、A文字カードの第1方向にR文字カードが隣接し、且つ第2方向に他の文字カードが隣接していない。この時、判断の結果は「はい」となり、方法120はステップ122に進み、この時、プロセッサは、当該オブジェクトに対応する集合情報を生成し、当該オブジェクトの内容情報を集合情報に格納し、当該オブジェクトを参照オブジェクトとして定義する。即ち、この場合、A文字カードは、参照オブジェクトとして定義される。
一実施例において、内容情報は、相対的位置情報を含み、例えば、複数のオブジェクトの参照オブジェクトに対する複数の方向情報を含む。一実施例において、内容情報は、文字(Character)情報、内容認識情報、認証情報、仮想オブジェクト情報、暗号化情報、インタラクション命令情報、又はこれらの組み合わせを含んでもよい。一実施例において、集合情報は、オブジェクトの内容情報を含んでもよく、少なくとも1つの文字情報、順序に従った複数の字元情報、予め設定されたキャラクタ及び裝備の組み合わせ情報、又はこれらの組み合わせを含んでもよい。なお、複数のオブジェクトの内容情報は同じであってもよい。例えば、2つのオブジェクトの内容情報は、いずれも文字「B」であってもよい。
なお、ステップ121において、判断されたオブジェクトが第1ルールを満たさない場合(例えば図3(D)におけるC文字カードの右側に他のオブジェクトが隣接していない場合)、他のオブジェクトに対して、参照オブジェクトが見つかるまで、ステップ121を実行する。
次に、ステップ123において、各オブジェクトの配列が第2ルールを満たすどうかを判断する。一実施例において、第2ルールは、参照オブジェクトの第1方向に参照オブジェクト以外のオブジェクトが隣接しているかを判断することを含んでもよい。 判断結果が「はい」である場合、方法120はステップ124に進み、プロセッサによって前記参照オブジェクト以外のいずれかのオブジェクトをフォローオブジェクトとして表記する。例えば、図3(D)の例において、A文字カードの第1方向にR文字カードが隣接していると判断した場合、R文字カードをフォローオブジェクトとして表記する。次に、ステップ125において、各オブジェクトの配列が第3ルールを満たすかを判断する。一実施例において、第3ルールは、プロセッサによってフォローオブジェクトの第2方向に当該参照オブジェクトが隣接しているかを判断することを含んでもよい。例えば、図3(D)におけるR文字カードの第2方向に他の文字カードが隣接しているかを判断する。図3(D)において、R文字カードの左側がA文字カードであるため、この時の判断結果は「はい」になる。 一実施例において、ステップ121の実行結果が「はい」である場合、例えば、A文字カードの第1方向にR文字カードが隣接している場合、第1ルールを満たし、この時、第ステップ122を実行し、A及びRを集合情報に格納し、ステップ123における「第1方向に参照オブジェクト以外のオブジェクトが隣接しているかを判断する」ことを再度実行する必要なく、ステップ124を実行してR文字カードをフォローオブジェクトとする。
ステップ125の判断結果が「はい」である場合、方法120は、ステップ126に進み、プロセッサは、フォローオブジェクトの内容情報を集合情報に格納し、フォローオブジェクトを参照オブジェクトとして決定し、ステップ123に戻る。即ち、この時の参照オブジェクトはR文字カードになる。次に、ステップ123を実行する。この時の参照オブジェクト(R文字カード)の第1方向に他のオブジェクトが隣接していないため、ステップ123の判断結果は「いいえ」となる。判断結果が「いいえ」である場合、即ち、参照オブジェクトの第1方向にいずれのオブジェクトも隣接していない場合、方法120はステップ127に進み、プロセッサは、集合情報を処理して演算結果を生成する。生成された演算結果は、プロセッサによる内容データベースとの比較を含んでもよい。集合情報がデータベースにおける内容と対応する場合、演算結果は表示装置に表示される。例えば、図3(D)において、ARスクリーン裝置(携帯電話、タブレット、ARメガネなどを含む等を含む)にA、R文字カードの3D画像を表示する。一実施例において、表示装置は、演算結果に基づいて、プロンプト画像、ワード画像、成功のプロンプト画像、エラーのプロンプト画像、失敗のプロンプト画像、キャラクタ動画画像、キャラクタースキル画像、またはそれらの組み合わせを表示してもよい。
同様に、C、A、R文字カードの配列が完成されると、図3(E)~図3(I)に示すように、同じロジックで前記方法120を実行し、最後のステップ127で車両の3D画像を表示してもよい。上記の演算結果は、表示装置に画像、音声、イメージ、出力結果、又はその同様なものを表示するための信号に対応してもよい。
また、ステップ125の判断結果が「いいえ」である場合、方法120はステップ127に進み、表示装置に演算結果に対応する画像を表示してもよい。一実施例において、方法120におけるいずれのステップの演算結果が「いいえ」である場合、プロセッサは、参照オブジェクト及び参照オブジェクト以外の他のオブジェクトの内容情報をエラー記録集合に格納してもよい。例えば、単語CARRYをCERRYにペルミスした場合、プロセッサは、Cオブジェクト及びEオブジェクトの内容情報をエラー記録集合に格納し、使用者エラー部分を確認できるようにする。前記方法120は、一度に1つのオブジェクトのみを判定し、ルールを満たさない場合は、判断を終了し、後続の他の演算を行わないため、パフォーマンスリソースを節約することができる。
本発明の実施例は、更に、例えば、拡張現実のインタラクション方法として、ステップ105の詳細を実行するためにも使用可能な方法130も提供する。図13は、本発明の一実施例の方法130の概念図である。図13に示すように、ステップ131において、内容情報、複数の演算方向情報(例えば複数の検査方向)、又はプロセッサの少なくとも1つのオブジェクトに対する処理演算後の結果を格納するためのオブジェクトの集合情報を提供する。次に、ステップ132において、オブジェクトの数を判断する。オブジェクトの数が奇数である場合、ステップ133に進み、プロセッサによってオブジェクトの内容情報を当該オブジェクトに対応する集合情報に格納し、ステップ134において、プロセッサによって集合情報を送信し、演算結果を生成する。例えば、図3Aにおいて、C文字カードが1枚だけの場合、ステップ134の演算結果は、C文字カードの3D画像を表示する。
ステップ132の判断結果が複数オブジェクトである場合、方法130はステップ135に進み、この時、そのうちの2つオブジェクトが互いに隣接し、且つそのうちの一方のオブジェクトの検査方向に他方のオブジェクトが隣接し、且つ他方のオブジェクトの再検査方向にその他のオブジェクトが隣接していないと判断した場合、プロセッサは、当該オブジェクトを先頭オブジェクトとして標記する。例えば、図3(D)において、A文字カードを先頭オブジェクトとして標記するか、又は図3(E)において、C文字カードを先頭オブジェクトとして標記する。一実施例において、先頭オブジェクトは、文頭オブジェクト、キャラクタオブジェクト、建設基地オブジェクト、又は他の追加、添加、又は付加可能な人物、アイテム、文字、又はイベントであってもよい。
次に、ステップ136において、プロセッサによって認識された画像におけるオブジェクトの数が複数であり、且つそのうち一方のオブジェクトの検査方向に他方のオブジェクトが隣接し、且つ当該オブジェクトの検査方向と他方のオブジェクトの再検査方向が互いに逆方向である等の条件である場合、プロセッサは、当該2つのオブジェクトの内容情報を集合情報に格納する。一実施例において、ステップ136は、更に、2つのオブジェクト同士が隣接する条件を含んでもよい。これにより、例えば図3(D)におけるA、R文字カードのように、2つのオブジェクトが隣接し且つ正しく配列されることを確認することができる。
次に、ステップ137において、プロセッサは、例えば図3(D)におけるA文字カード又は図3(E)におけるC文字カードのような参照オブジェクトを標記する。参照オブジェクトの検査方向に他のオブジェクトが隣接している場合、プロセッサは、当該他のオブジェクトをフォローオブジェクトとして標記する。その後、参照オブジェクトの検査方向及びフォローオブジェクトの再検査方向が互いに逆方向である場合、プロセッサは、参照オブジェクトの内容情報及びフォローオブジェクトの内容情報を集合情報に確認する。
方法130はステップ138に進み、プロセッサは、参照オブジェクトを検査済みオブジェクトとして標記し、その後、プロセッサは、フォローオブジェクトを当該参照オブジェクトとして標記し、参照オブジェクトの検査方向に隣接している他のオブジェクトを他のフォローオブジェクトとして標記する。例えば、図3(E)において、元々C文字カードが参照オブジェクトであり、A文字カードがフォローオブジェクトである。C文字カードを検査した後、この時、A文字カードを参照オブジェクトとして改めて標記し、R文字カードを他のフォローオブジェクトとして標記する。次に、ステップ139において、新たな参照オブジェクトの検査方向と新たなフォローオブジェクトの再検査方向が互いに逆方向であるかを判断する。即ち、後続の他のフォローオブジェクトがあるかを判断する。「はい」である場合、プロセッサは、新たな参照オブジェクトの内容情報及び新たなフォローオブジェクトの内容情報を集合情報に格納する。そうでない場合、ステップ134を実行してプロセッサによって集合情報を送信することで、演算結果を生成する。上記の方法130は、一度に1つのオブジェクトのみを判断し、ルールを満たさない場合は、判断を終了し、後続の他の演算を行わないため、パフォーマンスリソースを節約することができる。
上記の実施形態では、文字カードの配置を例として説明したが、本発明はこれに限定されない。 本発明の方法は、例えばボードゲームにも適用可能である。 例えば、本発明の一実施例による方法を利用した一例の概念図である。
先ず、図14(A)において、キャラクタカード301を配置したが、双剣を装備した女戦士が現れる。次に、図14(B)において、キャラクタカード301の位置をクリックすると、ボタン305が現れる。次に、図14(C)において攻撃ボタン305をクリックすると、図14(D)において、キャラクタは攻撃を開始する。一実施例において、攻撃ボタン305現れない場合、後続の装備カード302又はエネルギーカード303等を装備することができないように設計してもよい。
次に、図14(E)~図14(F)において、キャラクタカード301と武器カード302との間の距離が前記検査閾値又は許容値より小さくなるまで、追加の軍刀武器カード302をキャラクタカード301に近づける。本発明の他の実施例による方法を利用した一例の概念図である。次に、図15(A)~図15(B)において、武器カード302の上の武器3D画像がキャラクタカード301の上に移動して組み合わせを完成する。図15(B)において、軍刀武器カード302上の軍刀3D画像がキャラクタカード301上の3D画像に装備されると、この時、キャラクタは上記の双剣の代わりに軍刀で攻撃する。その後、図15(C)~図15(D)において、キャラクタカード301が初めて武器カード302に組み合わさると、システムは、攻撃ボタンをクリックする必要なく、自動的に図15(C)~図15(D)における攻撃動画を示す。図15(G)及び図15(H)において、攻撃ボタン305を再度クリックすると、キャラクタは軍刀で再度攻撃する。このような状況において、キャラクタカード301は、例えば、前記方法での先頭オブジェクトであってもよく、武器カード302は、前記方法でのフォローオブジェクトであってもよい。次に、図15(E)及び図15(F)において、前記方法では各オブジェクトの内容情報を更新することができるため、この時のキャラクタカード301の武器は軍刀に更新されるため、武器カード302を取り除いても、武器が双剣に戻らない。
図16は、本発明の他の実施例による方法を利用した一例の概念図である。図16(A)に示すように、エネルギーカード303をキャラクタカード301に近づけると、図16(B)~図16(D)に示すように、エネルギーカード303上の3D画像がキャラクタカード301に移動するようにしてもよい。例えば、エネルギーカード303からキャラクタカード301に向かう方向306に移動するようにしてもよい。次に、図16(E)に示すように、キャラクタの攻撃方法は、それにより変化してもよい。図15の実施例において、武器カード302を取り除いた後、キャラクタカード301の攻撃方法は、武器カード302を取り除いても変化しない。即ち、内容情報は、武器カード302が取り除かれても再度更新されることはないが、本発明はこれに限定されない。例えば、図16(F)及び図16(G)に示すように、エネルギーカード303を取り除いた後、キャラクタの攻撃方法は以前の攻撃方法に戻る。これにより、設計者により大きな設計の柔軟性を提供することができる。一実施例において、上記の武器カード302、エネルギーカード303は、特定の順番なく、いずれもキャラクタカード301に直接装備されてもよい。一実施例において、キャラクタカード301に武器カード302を装備しないと、エネルギーカード303を追加又は使用することができない。即ち、各オブジェクトは、特定の組み合わせの順番を有してもよい。
一実施例において、武器カード302又はエネルギーカード303の上の3D画像がキャラクタカード301の上に移動していない場合、武器カード302又はエネルギーカード303が再度検出範囲に移動するまで、3D画像の移動を停止してもよい。一実施例において、各カードの内容情報を初期の内容情報に戻すための命令を提供してもよい。例えば、ジェスチャーで制御することで、武器カード302、エネルギーカード303を回収してもよい。一実施例において、同時に複数枚の武器カード302、エネルギーカード303を装備してもよい。
図17は、武器カード302又はエネルギーカード303をキャラクタカード301に装備する時の概念図である。武器カード302又はエネルギーカード303のうちの少なくとも一部がキャラクタカード301の検出範囲304内に入った場合、キャラクタカード301と武器カード302(或エネルギーカード303)との間の距離が前記検査の閾値又は許容値よりも小さいと判断され、後続の判断を継続してもよい。
図18は、本発明の一実施例の方法400のフローチャートである。方法400は、例えば、前記実施例のキャラクタカード301、武器カード302、エネルギーカード303の組み合わせ関係を判断するためのものである。先ず、ステップ401において、オブジェクト(例えばキャラクタカード301、武器カード302、エネルギーカード303)を2Dの画像に撮影する。ここでのオブジェクトは、例えば、カードであるか、又は他の画像情報を有するオブジェクトであってもよい。一実施例において、携帯電話、カメラ、ARグラス、MRグラス、タブレット、ラップトップ等のARKitまたはARCoreをサポートするIOS/Android撮影装置を備えるデバイスなど、様々な撮影裝置で撮影してもよい。
ステップ402において、撮影した2D画像と作成された3Dシーンを整合する。ステップ403において、整合時、アルゴリズムにより、撮影した2D画像を3Dシーンにおける座標位置に変換してもよい。例えば、アルゴリズムにより、上記座標の「軸方向」及び「距離」を判断し、当該情報を集合情報としてもよい。
ステップ404において、プロセッサは、使用者が攻撃命令をオンにしたかを判断してもよい。使用者が攻撃命令をオンにすると、ステップ405において使用者が攻撃命令を実行したかを判断する。使用者が攻撃命令をオンにしていないか、又は攻撃命令を実行していない場合、ステップ404又はステップ405はステップ406に進み、この時、武器カード302を提供しても、キャラクタカード301及び武器カード302は組み合わされない。
ステップ405において、使用者が攻撃命令を実行したと判断されると、ステップ407において、キャラクタカード301のデータが更新され、例えば、キャラクタが攻撃を行う。次に、ステップ408において、武器カード302を加える。ステップ409において、武器カード302とキャラクタカード301との距離が検出範囲304に入ったかを判断する。「はい」である場合、ステップ410に進み、キャラクタカード301のデータが更新される。例えば、キャラクタに新たな武器が装備される。ステップ409において「いいえ」と判断された場合、回到ステップ406に戻り、キャラクタカード301と武器カード302との組み合わせが発生しない。
次に、ステップ411において、エネルギーカード303を加える。その後、ステップ412において、キャラクタカード301とエネルギーカード303との距離が上記の検出範囲304に入ったかを判断する。「はい」である場合、キャラクタカード301のデータが更新され、例えば、キャラクタカード301の攻撃方法が変化し、キャラクタカード301とエネルギーカード303との距離が上記の検出範囲304外になるまで、ステップ412を繰り返して実行する。この時、方法400はステップ414に進み、キャラクタカード301とエネルギーカード303との組み合わせが発生しない。
以上により、本発明の実施例は、様々な拡張現実画像におけるオブジェクトの組み合わせを認識する方法を提供する。カメラ及びプロセッサを用いて画像におけるオブジェクトを認識することができる。これにより、処理時に必要なパフォーマンスリソースを節約することで、同時に2枚以上のカードパターンの組み合わせを検査する時に不安定になるという問題を解決し、例えば、エンターテイメント、教育等の機能も提供することができる。また、本発明の実施例により提供されるインタラクション方法は、各オブジェクトの組み合わせの柔軟性をより高めることができる。
本発明の特定の実施形態および利点を開示したが、関連する技術分野における通常の知識を有する者であれば、本発明の精神および範囲から逸脱することなく、変更、置換および修正を行うことができることを理解されたい。 また、本発明の保護範囲は、本明細書の特定の実施形態に記載されたプロセス、機械、製造、材料組成、装置、方法及び手順に限定されるものではなく、当該技術分野における通常の知識を有する者であれば誰でも知ることができる。現在、または将来開発されるプロセス、機械、製造、材料組成、装置、方法およびプログラムは、実質的に同じ機能を実行できる限り、あるいは将来開発される限り、本開示に従って使用できることが理解される。本明細書に記載の実施形態では、実質的に同じ結果が得られる。 したがって、本発明の保護範囲には、上述のプロセス、機械、製造、材料組成、装置、方法およびプログラムが含まれる。 また、各特許出願範囲は個別の実施形態を構成しており、各特許出願範囲と実施形態との組み合わせも本発明の保護範囲に含まれる。
100,110,120,130,400:方法
101,102,103,104,105,106,111,112,113,114,115,116,117,118,121,122,123,124,125,126,131,132,133,134,135,136,137,138,139,401,402,403,404,405,406,407,408,409,410,411,412,413:ステップ
200:多角形オブジェクト
201,202,203,204,205:辺
211,212,213,214,215:ベクター
301:キャラクタカード
302:武器カード
303:エネルギーカード
304:検出範囲

Claims (35)

  1. カメラ及びプロセッサを用いて画像における少なくとも1つのオブジェクトを認識するための拡張現実のインタラクション方法であって、
    前記少なくとも1つのオブジェクトは、内容情報及び複数の演算方向情報を含み、
    前記複数の演算方向情報は、検査方向、再検査方向、又はこれらの組み合わせを含み、
    前記方法は、
    前記プロセッサが前記少なくとも1つのオブジェクトのうちの一方の前記検査方向と、当該オブジェクトに隣接する前記少なくとも1つのオブジェクトのうちのいずれかの一方の前記再検査方向とがペアリング関係を満たすかを検査することを含む第1再検査ステップと、
    前記ペアリング関係を満たす場合、前記プロセッサによって前記少なくとも1つのオブジェクトのうちの前記一方及び前記少なくとも1つのオブジェクトのうちの前記いずれかの一方の前記内容情報を処理し、演算結果を生成することと、
    前記少なくとも1つのオブジェクトのうちの前記一方の前記検査方向において前記少なくとも1つのオブジェクトのうちの前記いずれかの一方が隣接し、且つ前記少なくとも1つのオブジェクトのうちの一方の前記再検査方向において前記少なくとも1つのオブジェクトのうちのいずれかの他方が隣接していない場合、前記プロセッサによって前記少なくとも1つのオブジェクトのうちの一方を先頭オブジェクトとすることと、を含む、ことを特徴とするインタラクション方法。
  2. 更に、第1検査ステップを含み、前記第1検査ステップは、
    前記プロセッサが前記少なくとも1つのオブジェクトのうちの一方の前記検査方向において前記少なくとも1つのオブジェクトのうちの前記いずれかの一方が隣接しているかを検査して第1検査結果を生成し、
    前記第1検査結果が「はい」である場合、前記プロセッサによって前記少なくとも1つのオブジェクトのうちの一方の前記再検査方向において前記少なくとも1つのオブジェクトのうちのいずれかの他方が隣接しているかを検査して第2検査結果を生成する、ことを特徴とする請求項1に記載のインタラクション方法。
  3. 前記第1検査ステップの前記第1検査結果が「いいえ」である場合、前記プロセッサは、前記第1検査ステップを繰り返して前記少なくとも1つのオブジェクトのうちの他方を検査する、ことを特徴とする請求項2に記載のインタラクション方法。
  4. 前記プロセッサは、フォローオブジェクトの再検査方向と、前記少なくとも1つのオブジェクトの前記検査方向とが前記ペアリング関係を満たすかを検査してペアリング結果を生成し、前記フォローオブジェクトは、その属する前記再検査方向において前記少なくとも1つのオブジェクトに隣接し、
    前記プロセッサは、前記ペアリング結果を処理し、演算結果を生成する、ことを特徴とする請求項1に記載のインタラクション方法。
  5. 前記方法は、更に、前記プロセッサによって前記先頭オブジェクトから前記第1再検査ステップを実行することを含み、
    前記第1再検査ステップは、更に、
    前記プロセッサは、前記ペアリング関係を満たすかを検査した後、ペアリング結果を生成することと、
    前記プロセッサは、前記ペアリング結果を処理して前記演算結果を生成することと、を含む、ことを特徴とする請求項2に記載のインタラクション方法。
  6. 前記プロセッサが前記少なくとも1つのオブジェクトのうちの一方の前記第1検査結果が「はい」であり且つ前記第2検査結果が「いいえ」であると判断した場合、前記プロセッサは、前記少なくとも1つのオブジェクトのうちの一方を前記先頭オブジェクトとして処理する、ことを特徴とする請求項5に記載のインタラクション方法。
  7. 前記第1再検査ステップは、更に、
    前記プロセッサが配置順番に従って前記少なくとも1つのオブジェクトに対して前記第1再検査ステップを実行することと、
    前記ペアリング結果が前記ペアリング関係を満たさない場合、前記プロセッサは、前記第1再検査ステップを停止することと、を含む、ことを特徴とする請求項4又は5に記載のインタラクション方法。
  8. 前記第1再検査ステップは、更に、
    前記プロセッサが配置順番に従って前記少なくとも1つのオブジェクトに対して前記第1再検査ステップを実行することと、
    前記ペアリング結果が前記ペアリング関係を満たさない場合、前記プロセッサが前記第1再検査ステップを停止することと、を含み、
    前記配置順番は、前記少なくとも1つのオブジェクトが属する前記検査方向に従って配置されて配列される順番、前記少なくとも1つのオブジェクトが先頭オブジェクトが属する前記検査方向に従って配置されて配列される順番、又はこれらの組み合わせから選択される、ことを特徴とする請求項5に記載のインタラクション方法。
  9. 前記先頭オブジェクトの数は、複数である、ことを特徴とする請求項5に記載のインタラクション方法。
  10. 前記先頭オブジェクトは、予め設定された前記内容情報を前記プロセッサによって認識されるキャラクタオブジェクト、建築基地オブジェクト、これらの組み合わせ、もしくは他の追加、添加、又は付加可能な人物、アイテム、文字、又はイベントとして含む、ことを特徴とする請求項5に記載のインタラクション方法。
  11. 前記少なくとも1つのオブジェクトの数は、複数であり、
    前記検査方向は、予め設定された検査ベクターを含み、
    前記再検査方向は、予め設定された再検査ベクターを含み、
    前記ペアリング関係は、予め設定されたペアリング関係を含む、ことを特徴とする請求項1に記載のインタラクション方法。
  12. 前記複数のオブジェクトは、第1オブジェクト、及び第2オブジェクトを含み、
    前記第1オブジェクトは、第1オブジェクト検査閾値を含み、
    前記第2オブジェクトは、第2オブジェクト検査閾値を含み、
    前記第1オブジェクト検査閾値は、前記第2オブジェクト検査閾値と異なり、
    前記ペアリング関係は、第1ペアリング検査閾値、及び第2ペアリング検査閾値を含み、
    前記拡張現実のインタラクション方法は、更に、
    前記第1オブジェクトと前記第2オブジェクトとの間の距離の数学演算結果、前記第1オブジェクト及び前記第2オブジェクトベクターの数学演算結果、前記第1オブジェクト及び前記第2オブジェクトの前記内容情報の演算結果、又はこれらの組み合わせが前記第1ペアリング検査閾値又は第2ペアリング検査閾値を満たすかを確認することと、
    前記第1ペアリング検査閾値又は前記第2ペアリング検査閾値に基づいて前記演算結果を表示する、ことを特徴とする請求項11に記載のインタラクション方法。
  13. 更に、
    前記プロセッサが前記ペアリング関係を少なくとも1つの集合情報に格納することと、
    前記プロセッサが前記少なくとも1つの集合情報を処理して演算結果を生成することと、を含む、ことを特徴とする請求項1に記載のインタラクション方法。
  14. 前記第1再検査ステップは、更に、
    前記少なくとも1つのオブジェクトのうちの一方の検査方向と、前記少なくとも1つのオブジェクトのうちの前記いずれかの一方の前記再検査方向とが前記ペアリング関係を満たす場合、プロセッサが前記少なくとも1つのオブジェクトのうちの一方を参照オブジェクトとして設定し、前記プロセッサが少なくとも1つのオブジェクトのうちの前記いずれかの一方をフォローオブジェクトとして設定することと、
    前記参照オブジェクトの検査方向と、前記フォローオブジェクトの前記再検査方向とが前記ペアリング関係を満たす場合、前記プロセッサが前記参照オブジェクト及び前記フォローオブジェクトの前記内容情報を処理して演算結果を生成することと、
    前記プロセッサが前記参照オブジェクトを判定済みオブジェクトとして設定し、前記フォローオブジェクトを参照オブジェクトの他方として設定することと、
    前記第1再検査ステップの後、前記プロセッサが第2検査ステップを実行し、前記第2検査ステップは、前記参照オブジェクトの前記他方の検査方向において前記少なくとも1つのオブジェクトが隣接している場合、前記少なくとも1つのオブジェクトを前記フォローオブジェクトの他方として設定することを含むこととを含み、
    前記プロセッサは、前記第2検査ステップの結果が「いいえ」になるまで、前記第1再検査ステップ及び第2検査ステップを繰り返して実行する、ことを特徴とする請求項1に記載のインタラクション方法。
  15. 前記ペアリング関係を満たす場合、前記プロセッサは、前記少なくとも1つのオブジェクトのうちの一方の前記内容情報を更新する、ことを特徴とする請求項1に記載のインタラクション方法。
  16. 使用者が前記認識画像における前記少なくとも1つのオブジェクトのうちの前記いずれかの一方を取り除いた場合、前記プロセッサは、前記少なくとも1つのオブジェクトのうちの一方の前記内容情報を読み取り、表示装置に表示する、ことを特徴とする請求項15に記載のインタラクション方法。
  17. 更に、画像表示ステップを含み、
    前記プロセッサが認識画像における少なくとも1つのオブジェクトの前記内容情報を認識し、表示装置に前記内容情報を表示し、
    前記内容情報は、ヌル値を含むか、又はモデル情報、立体モデル情報、キャラクタモデル情報、音声情報、デジタルメディア情報、文字情報、内容認識情報、認証情報、仮想オブジェクト情報、暗号化情報、インタラクション命令情報、又はこれらの組み合わせを含む、ことを特徴とする請求項1に記載のインタラクション方法。
  18. 前記内容情報は、使用者と前記少なくとも1つのオブジェクトがインタラクションを行うためのインタラクションオブジェクトを含み、
    前記インタラクションオブジェクトは、前記少なくとも1つのオブジェクトの表面に印刷され、
    前記使用者は、ジェスチャーで前記少なくとも1つのオブジェクトとインタラクションを行い、
    前記プロセッサは、前記少なくとも1つのオブジェクトの前記内容情報を更新する、ことを特徴とする請求項1に記載のインタラクション方法。
  19. 前記複数の演算方向情報は、検査領域を含み、
    前記方法は、更に、前記少なくとも1つのオブジェクトのうちの一方の前記検査領域内に前記少なくとも1つのオブジェクトのうちの前記いずれかの一方が含まれる場合、前記第1再検査ステップを実行することを含む、請求項1に記載のインタラクション方法。
  20. 前記検査領域は、プロセッサの認識画像における仮想平面、仮想立体空間、又はこれらの組み合わせを含み、且つ複数の演算方向情報は、前記少なくとも1つのオブジェクトの仮想平面、仮想立体空間、又はこれらの組み合わせにおけるX軸、Y軸、Z軸、又はこれらの組み合わせを含む、ことを特徴とする請求項19に記載のインタラクション方法。
  21. 前記第1再検査ステップの検査時に許容値を有し、
    前記少なくとも1つのオブジェクトが複数のオブジェクトである場合、前記隣接は、前記少なくとも1つのオブジェクトのうちの一方的前記検査方向及び前記少なくとも1つのオブジェクトのうちの前記いずれかの一方の前記再検査方向の仮想平面又は仮想立体空間におけるピッチが前記許容値内であることを指す、ことを特徴とする請求項2に記載のインタラクション方法。
  22. 前記許容値は、距離許容値、角度許容値を含み、前記少なくとも1つのオブジェクトのうちの一方と前記少なくとも1つのオブジェクトのうちの前記いずれかの一方との距離が前記距離許容値内にあり、
    前記距離許容値は、0~5cm、5~10cm、又は10~15cmであり、
    前記角度許容値は、0度~15度、又は80度~110度である、ことを特徴とする請求項21に記載のインタラクション方法。
  23. カメラ及びプロセッサを用いて画像における複数のオブジェクトを認識するための拡張現実のインタラクション方法であって、
    前記複数のオブジェクトのうちのいずれかの一方は、内容情報及び複数の方向情報を含み、前記複数の方向情報は、第1方向及び第2方向を含み、
    前記方法は、ステップA、ステップB、ステップC及びステップDを含み、
    前記ステップAは、
    前記複数のオブジェクトのうちの一方の前記第1方向において前記複数のオブジェクトのうちの他方が隣接し、且つ前記複数のオブジェクトの前記一方の前記第2方向において前記複数のオブジェクトが隣接していない場合、前記プロセッサが前記複数のオブジェクトの前記一方に対応する集合情報を生成し、前記複数のオブジェクトのうちの前記一方の前記内容情報を前記集合情報に格納することと、
    前記複数のオブジェクトのうちの前記一方を参照オブジェクトとして決定することとを含み、
    前記ステップBは、
    前記参照オブジェクトの前記第1方向において前記参照オブジェクト以外の前記複数のオブジェクトのいずれかの一方が隣接している場合、前記プロセッサが前記複数のオブジェクトの前記いずれかの一方を前記フォローオブジェクトとして標記し、前記ステップCを実行することと、
    前記参照オブジェクトの前記第1方向において前記複数のオブジェクトが隣接していない場合、前記ステップDを実行すること、とを含み、
    前記ステップCは、
    前記プロセッサが前記フォローオブジェクトの前記第2方向において前記参照オブジェクトが隣接していると判断した場合、前記プロセッサが前記フォローオブジェクトの前記内容情報を前記集合情報に格納することと、
    前記フォローオブジェクトを前記参照オブジェクトとして決定することと、
    前記ステップBを実行すること、とを含み、
    前記ステップDは、
    前記プロセッサが前記集合情報を処理して演算結果を生成することを含む、ことを特徴とするインタラクション方法。
  24. 前記ステップCは、更に、前記プロセッサが前記フォローオブジェクトの前記第2方向において参照オブジェクトが隣接してないと判断した場合、前記ステップDを実行することを含む、ことを特徴とする請求項23に記載のインタラクション方法。
  25. 前記内容情報は、更に、相対的位置情報を含み、前記相対的位置情報は、前記複数のオブジェクトの前記参照オブジェクトに対応する前記複数の方向情報を含む、ことを特徴とする請求項23に記載のインタラクション方法。
  26. 更に、表示装置を含み、前記演算結果に基づいて、プロンプト画像、ワード画像、成功のプロンプト画像、エラーのプロンプト画像、失敗のプロンプト画像、キャラクタ動画画像、キャラクタースキル画像、またはそれらの組み合わせを表示し、
    前記ステップCは、更に、前記プロセッサが前記フォローオブジェクトの前記第2方向において前記参照オブジェクトが隣接していないと判断した場合、前記表示装置に前記演算結果に対応する画像を表示する、ことを特徴とする請求項23に記載のインタラクション方法。
  27. 前記ステップBにおいて、前記参照オブジェクトの前記第1方向において前記参照オブジェクト以外の前記複数のオブジェクトのうちの前記いずれかの一方が隣接していない場合、前記プロセッサがプロンプト結果を生成して表示装置に表示する、ことを特徴とする請求項26に記載のインタラクション方法。
  28. 前記プロセッサは、前記参照オブジェクト及び前記参照オブジェクト以外の前記複数のオブジェクトのうちの前記いずれかの一方の前記内容情報をエラー記録集合に格納する、ことを特徴とする請求項27に記載のインタラクション方法。
  29. 前記集合情報は、前記複数のオブジェクトのうちの少なくとも一方の前記内容情報と、少なくとも1つの文字情報、順序に従った複数の字元情報、予め設定されたキャラクタ及び裝備の組み合わせ情報、又はこれらの組み合わせとを含み、
    前記複数のオブジェクトのうちの前記一方は、先頭オブジェクト、文頭オブジェクト、基地オブジェクト、又はキャラクタオブジェクトであり、
    前記複数のオブジェクトのうちのいずれかの一方の縁部と前記複数のオブジェクトのうちの他方の最短距離が5cm未満である場合、前記複数のオブジェクトのうちのいずれかの2つを互いに隣接すると定義する、ことを特徴とする請求項26に記載のインタラクション方法。
  30. カメラ及びプロセッサを用いて画像における少なくとも1つのオブジェクトを認識するための拡張現実のインタラクション方法であって、
    前記オブジェクトは、内容情報及び複数の演算方向情報を含み、
    前記複数の演算方向情報は、検査方向、再検査方向、又はこれらの組み合わせを含み、
    前記インタラクション方法は、ステップM、ステップQ、及びステップRを含み、
    前記ステップMは、
    前記内容情報、複数の演算方向情報、又は前記プロセッサの前記少なくとも1つのオブジェクトに対する処理演算後の結果を格納するための集合情報を提供することを含み、
    前記ステップQは、
    前記プロセッサが認識した画像におけるオブジェクトが複数であり、前記複数のオブジェクトのうちの2つのうちの一方が前記検査方向において前記複数のオブジェクトのうちの前記2つの他方に隣接し、且つ前記複数のオブジェクトの前記2つのうちの前記一方の前記検査方向と前記複数のオブジェクトのうちの前記2つのうちの前記他方の前記再検査方向とが互いに逆方向である場合、
    前記プロセッサは、前記複数のオブジェクトのうちの前記2つの前記内容情報を前記集合情報に格納することを含み、
    前記ステップRは、
    前記プロセッサが前記集合情報を送信して演算結果を生成することを含む、ことを特徴とするインタラクション方法。
  31. 前記検査方向は、英語単語の読み方向、中国語単語の読み方向、キャラクタオブジェクトの裝備スロットの配置位置又はその組み合わせを含み、
    前記複数の方向情報は、更に、複数の検査方向を含む、ことを特徴とする請求項30記載のインタラクション方法。
  32. 前記ステップQ前に、ステップX含み、
    前記ステップXは、前記複数のオブジェクトの前記2つが互いに隣接し、且つ前記複数のオブジェクトのうちの前記2つのうちの一方の前記検査方向において前記複数のオブジェクトのうちの前記2つのうちの他方が隣接し、前記複数のオブジェクトのうちの前記2つのうちの前記一方の前記再検査方向において前記複数のオブジェクトのうちの他のオブジェクトが隣接していない場合、前記プロセッサは、前記複数のオブジェクトのうちの前記2つのうちの前記一方を先頭オブジェクトとして標記することを含む、ことを特徴とする請求項30に記載のインタラクション方法。
  33. 前記少なくとも1つのオブジェクトの数は、少なくとも2つであり、且つ前記ステップQの後に、ステップYを含み、
    前記ステップYは、
    前記プロセッサが前記複数のオブジェクトのうちの前記2つのうちの前記一方を参照オブジェクトとして標記することと、
    前記参照オブジェクトの前記検査方向において前記複数のオブジェクトのうちの他のオブジェクトが隣接している場合、前記プロセッサが前記複数のオブジェクトのうちの前記他のオブジェクトを少なくとも1つのフォローオブジェクトとして標記することと、
    前記参照オブジェクトの前記検査方向と前記少なくとも1つのフォローオブジェクトの前記再検査方向とが互いに逆方向である場合、前記プロセッサが前記参照オブジェクトの前記内容情報及び少なくとも1つのフォローオブジェクトの前記内容情報を前記集合情報に格納することと、を含む、ことを特徴とする請求項30に記載のインタラクション方法。
  34. 前記ステップYの後に、更に、少なくとも1つのステップZを含み、
    前記ステップZは、
    前記プロセッサが前記参照オブジェクトを検査済みオブジェクトとして標記し、前記プロセッサが前記フォローオブジェクトを前記参照オブジェクトとして標記することと、
    前記プロセッサが前記参照オブジェクトを前記参照オブジェクトの前記検査方向において隣接する前記複数のオブジェクトのうちの他のオブジェクトを前記少なくとも1つのフォローオブジェクトのうちの他方として標記することと、
    前記参照オブジェクトの前記検査方向と前記少なくとも1つのフォローオブジェクトのうちの前記他方の前記再検査方向とが互いに逆方向である場合、前記プロセッサが前記参照オブジェクトの前記内容情報及び前記少なくとも1つのフォローオブジェクトのうちの前記他方の前記内容情報を前記集合情報に格納し、前記ステップZを再度実行すること、と含む、ことを特徴とする請求項33に記載のインタラクション方法。
  35. カメラ及びプロセッサを用いて画像における少なくとも1つのオブジェクトを認識するための拡張現実のインタラクション方法であって、
    前記オブジェクトは、内容情報及び複数の演算方向情報を含み、
    前記複数の演算方向情報は、検査方向、再検査方向、又はこれらの組み合わせを含み、
    前記方法は、ステップP、ステップQ'、及びステップRを含み、
    前記ステップPは、
    前記プロセッサが画像における前記少なくとも1つのオブジェクトの数が1であると認識した場合、
    前記プロセッサが前記少なくとも1つのオブジェクトの前記内容情報を前記オブジェクトに対応する集合情報に格納することを含み、
    前記ステップQ'は、
    前記プロセッサが画像における前記少なくとも1つのオブジェクトの数が複数であると認識し、且つ前記複数のオブジェクトのうちの2つが互いに隣接し、前記複数のオブジェクトのうちの前記2つのうちの一方の前記検査方向において前記複数のオブジェクトのうちの前記2つのうちの他方が隣接し、且つ前記複数のオブジェクトのうちの前記2つのうちの前記一方の前記検査方向と前記複数のオブジェクトのうちの前記2つのうちの他方の再検査方向が互いに逆方向である場合、
    前記プロセッサが前記複数のオブジェクトのうちの前記2つのオブジェクトの前記内容情報を前記集合情報に格納することを含み、
    前記ステップRは、
    前記プロセッサが前記集合情報を送信して演算結果を生成することを含む、ことを特徴とするインタラクション。
JP2023197758A 2022-11-27 2023-11-21 拡張現実の画像内でのオブジェクト組み合わせの認識方法 Pending JP2024077001A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US202263385034P 2022-11-27 2022-11-27
US63/385,034 2022-11-27

Publications (1)

Publication Number Publication Date
JP2024077001A true JP2024077001A (ja) 2024-06-06

Family

ID=88966243

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023197758A Pending JP2024077001A (ja) 2022-11-27 2023-11-21 拡張現実の画像内でのオブジェクト組み合わせの認識方法

Country Status (3)

Country Link
US (1) US20240177479A1 (ja)
JP (1) JP2024077001A (ja)
TW (1) TWI815782B (ja)

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7650035B2 (en) * 2006-09-11 2010-01-19 Google Inc. Optical character recognition based on shape clustering and multiple optical character recognition processes
WO2010029553A1 (en) * 2008-09-11 2010-03-18 Netanel Hagbi Method and system for compositing an augmented reality scene
KR101227237B1 (ko) * 2010-03-17 2013-01-28 에스케이플래닛 주식회사 복수의 마커를 이용하여 가상 객체간 인터렉션을 구현하는 증강현실 시스템 및 방법
JP5718197B2 (ja) * 2011-09-14 2015-05-13 株式会社バンダイナムコゲームス プログラム及びゲーム装置
JP6397143B2 (ja) * 2015-10-23 2018-09-26 オー チョル ワンOH, Chol Whan 仮想オブジェクトの衝突チェックによる反応型拡張現実カードゲームのデータ処理方法及び反応型拡張現実カードゲームプレイ装置
US10166473B2 (en) * 2016-07-29 2019-01-01 Justin Hanyan Wong System and method to provide augmented reality and remote gameplay for traditional trading card games
US10445569B1 (en) * 2016-08-30 2019-10-15 A9.Com, Inc. Combination of heterogeneous recognizer for image-based character recognition
BE1025006B1 (fr) * 2017-02-27 2018-09-25 I.R.I.S. Procède mis en oeuvre par ordinateur et système de reconnaissance de caractère optique
CN109685058B (zh) * 2017-10-18 2021-07-09 杭州海康威视数字技术股份有限公司 一种图像目标识别方法、装置及计算机设备
CN109754644A (zh) * 2017-11-06 2019-05-14 彼乐智慧科技(北京)有限公司 一种基于增强现实技术的教学方法及系统
US20220284579A1 (en) * 2017-11-22 2022-09-08 General Electric Company Systems and methods to deliver point of care alerts for radiological findings
JP6969443B2 (ja) * 2018-02-27 2021-11-24 日本電信電話株式会社 学習品質推定装置、方法、及びプログラム
JP7415433B2 (ja) * 2019-10-24 2024-01-17 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
JP2021068202A (ja) * 2019-10-24 2021-04-30 富士ゼロックス株式会社 情報処理装置及びプログラム

Also Published As

Publication number Publication date
US20240177479A1 (en) 2024-05-30
TWI815782B (zh) 2023-09-11

Similar Documents

Publication Publication Date Title
TWI654539B (zh) 虛擬實境交互方法、裝置與系統
CN103875004B (zh) 动态选择真实世界中的表面以用于在上面投影信息
US8699749B2 (en) Computer-readable storage medium, image processing apparatus, image processing system, and image processing method
Pucihar et al. Exploring the evolution of mobile augmented reality for future entertainment systems
US9792732B2 (en) Systems and methods for activities solver development in augmented reality applications
JP5178860B2 (ja) 画像認識プログラム、画像認識装置、画像認識システム、および画像認識方法
JP2011154699A (ja) 画像認識プログラム、画像認識装置、画像認識システム、および画像認識方法
JP2015153046A (ja) 画像処理装置、画像処理方法およびプログラム
US20220100265A1 (en) Dynamic configuration of user interface layouts and inputs for extended reality systems
CN109544663A (zh) 应用程序的虚拟场景识别与交互键位匹配方法及装置
CN116134405A (zh) 用于扩展现实的私有控制接口
EP2642452B1 (en) Image processing program, image processing apparatus, image processing system, and image processing method
CN110473293A (zh) 虚拟对象处理方法及装置、存储介质和电子设备
CN107832001A (zh) 信息处理方法、装置、电子设备及存储介质
JP2006314632A (ja) ゲームプログラムおよびゲーム装置
WO2016136380A1 (ja) 情報処理システム及びプログラム、サーバ、端末、並びに媒体
JP2012216074A (ja) 画像処理装置、画像処理装置の制御方法、及びプログラム
TWI707306B (zh) 用於提升在虛擬環境中找尋感興趣區域之效率的方法及裝置
JP2024077001A (ja) 拡張現実の画像内でのオブジェクト組み合わせの認識方法
TW202422385A (zh) 擴增實境影像識別的組合方法
CN117897682A (zh) 在物理表面上显示数字媒体内容
CN108053492A (zh) 立体图形的展开过程呈现方法、装置、设备及存储介质
CN111596925A (zh) 自动生成代码的方法、装置、计算机设备及介质
US9817924B2 (en) Sweeping a profile along small circular arcs of a path
US20230206566A1 (en) Method of learning a target object using a virtual viewpoint camera and a method of augmenting a virtual model on a real object implementing the target object using the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231124

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20231124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240409