次期NyARToolKitのサンプルになる予定のプログラム

莫大な量のバグと仕様変更に悩まされる今日この頃、皆様いかがお過ごしでしょうか。次期NyARToolKitのテストプログラムがやっと書けるレベルになったので、チラ見せ。書けるだけで、まだまだ動かないけれど。

package jp.nyatla.nyartoolkit.dev.rpf.reality.nyartk.gl;

import java.awt.Frame;
import java.awt.Insets;
import java.awt.event.WindowAdapter;
import java.awt.event.WindowEvent;

import javax.media.Buffer;
import javax.media.opengl.*;
import javax.media.opengl.glu.GLU;

import jp.nyatla.nyartoolkit.NyARException;
import jp.nyatla.nyartoolkit.core.param.NyARParam;
import jp.nyatla.nyartoolkit.core.transmat.NyARTransMatResult;
import jp.nyatla.nyartoolkit.detector.NyARSingleDetectMarker;
import jp.nyatla.nyartoolkit.dev.rpf.mklib.RawbitSerialIdTable;
import jp.nyatla.nyartoolkit.dev.rpf.reality.nyartk.NyARRealityTarget;
import jp.nyatla.nyartoolkit.dev.rpf.reality.nyartk.NyARRealityTargetList;
import jp.nyatla.nyartoolkit.dev.rpf.realitysource.nyartk.NyARRealitySource_Jmf;
import jp.nyatla.nyartoolkit.jmf.utils.JmfCaptureDevice;
import jp.nyatla.nyartoolkit.jmf.utils.JmfCaptureDeviceList;
import jp.nyatla.nyartoolkit.jmf.utils.JmfCaptureListener;
import jp.nyatla.nyartoolkit.jogl.utils.NyARGLUtil;

import com.sun.opengl.util.Animator;

/**
 * NyARRealityシステムのサンプル。
 * 複数のIDマーカを同時に区別するサンプルです。同一画面内に同じIDが複数あってもOK
 *
 * サンプル実装なのでまだ全然動かないよ。
 * @author nyatla
 *
 */
public class NyARRealityGlTest_CaptureImage implements GLEventListener, JmfCaptureListener
{

	private final static int SCREEN_X = 640;
	private final static int SCREEN_Y = 480;

	private Animator _animator;
	private JmfCaptureDevice _capture;

	private GL _gl;
	private GLU _glu;

	private Object _sync_object=new Object();

	NyARRealityGl _reality;
	NyARRealitySource_Jmf _src;
	RawbitSerialIdTable _mklib;

	public NyARRealityGlTest_CaptureImage(NyARParam i_param) throws NyARException
	{
		Frame frame = new Frame("NyARReality on OpenGL");

		// キャプチャの準備
		JmfCaptureDeviceList devlist = new JmfCaptureDeviceList();
		this._capture = devlist.getDevice(0);
		if (!this._capture.setCaptureFormat(SCREEN_X, SCREEN_Y, 30.0f)) {
			throw new NyARException();
		}
		this._capture.setOnCapture(this);
		//Realityの構築
		i_param.changeScreenSize(SCREEN_X, SCREEN_Y);
		//キャプチャ画像と互換性のあるRealitySourceを構築
		this._src=new NyARRealitySource_Jmf(this._capture.getCaptureFormat(),1);
		//OpenGL互換のRealityを構築
		this._reality=new NyARRealityGl(i_param,0.1,100,3,3);
		//マーカライブラリ(NyId)の構築
		this._mklib= new RawbitSerialIdTable(10);
		//マーカサイズテーブルの作成(とりあえず全部4cm)
		this._mklib.addAnyItem(40);

		// 3Dを描画するコンポーネント
		GLCanvas canvas = new GLCanvas();
		frame.add(canvas);
		canvas.addGLEventListener(this);
		frame.addWindowListener(new WindowAdapter() {
			public void windowClosing(WindowEvent e)
			{
				System.exit(0);
			}
		});

		frame.setVisible(true);
		Insets ins = frame.getInsets();
		frame.setSize(SCREEN_X + ins.left + ins.right, SCREEN_Y + ins.top + ins.bottom);
		canvas.setBounds(ins.left, ins.top, SCREEN_X, SCREEN_Y);
	}

	public void init(GLAutoDrawable drawable)
	{
		this._gl = drawable.getGL();
		this._gl.glEnable(GL.GL_DEPTH_TEST);
		this._gl.glClearColor(0.0f, 0.0f, 0.0f, 0.0f);
		// NyARToolkitの準備
		try {
			// キャプチャ開始
			_capture.start();
		} catch (Exception e) {
			e.printStackTrace();
		}
		this._animator = new Animator(drawable);
		this._animator.start();
		return;
	}

	public void reshape(GLAutoDrawable drawable, int x, int y, int width, int height)
	{
		_gl.glClear(GL.GL_COLOR_BUFFER_BIT | GL.GL_DEPTH_BUFFER_BIT);
		_gl.glViewport(0, 0, width, height);

		// 視体積の設定
		_gl.glMatrixMode(GL.GL_PROJECTION);
		_gl.glLoadIdentity();
		// 見る位置
		_gl.glMatrixMode(GL.GL_MODELVIEW);
		_gl.glLoadIdentity();
	}

	private double[] __display_wk = new double[16];

	public void display(GLAutoDrawable drawable)
	{
		//RealitySourceにデータが処理する。
		if(!this._src.isReady())
		{
			return;
		}

		// 背景を書く
		this._gl.glClear(GL.GL_COLOR_BUFFER_BIT | GL.GL_DEPTH_BUFFER_BIT); // Clear the buffers for new frame.
		try{
			synchronized(this._sync_object){

				NyARGLUtil.drawBackGround(this._glu,this._src._rgb_source, 1.0);
				// Projection transformation.
				this._gl.glMatrixMode(GL.GL_PROJECTION);
				this._gl.glLoadMatrixd(this._reality.refGlFrastumRH(), 0);
				//ターゲットリストを走査して、画面に内容を反映
				NyARRealityTargetList tl=this._reality.refTargetList();
				for(int i=tl.getLength()-1;i>=0;i--){
					NyARRealityTarget t=tl.getItem(i);
					switch(t.getTargetType())
					{
					case NyARRealityTarget.RT_KNOWN:
						this._gl.glMatrixMode(GL.GL_MODELVIEW);
						// Viewing transformation.
						this._gl.glLoadIdentity();
						// 変換行列をOpenGL形式に変換(ここ少し変えるかも)
						NyARGLUtil.toCameraViewRH(t.refTransformMatrix(), __display_wk);
						_gl.glLoadMatrixd(__display_wk, 0);
						// All other lighting and geometry goes here.
						drawCube();
						break;
					case NyARRealityTarget.RT_UNKNOWN:

						break;
					}
				}
			}
			Thread.sleep(1);// タスク実行権限を一旦渡す
		}catch(Exception e){
			e.printStackTrace();
		}

	}

	/**
	 * カメラのキャプチャした画像を非同期に受け取る関数。
	 * 画像を受け取ると、同期を取ってRealityを1サイクル進めます。
	 */
	public void onUpdateBuffer(Buffer i_buffer)
	{
		try {
			synchronized (this._sync_object)
			{
				this._src.setImage(i_buffer);
				this._reality.progress(this._src);
				//UnknownTargetを1個取得して、遷移を試す。
				NyARRealityTarget t=this._reality.selectSingleUnknownTarget();
				if(t==null){
					return;
				}
				//ターゲットに一致するデータを検索
				RawbitSerialIdTable.SelectResult r=new RawbitSerialIdTable.SelectResult();
				if(this._mklib.selectTarget(t,this._src,r)){
					//テーブルにターゲットが見つかったので遷移する。
					if(!this._reality.changeTargetToKnown(t,r.artk_direction,r.marker_width)){
					//遷移の成功チェック
						return;//失敗
					}
					//遷移に成功したので、tagにユーザ定義情報を書きこむ。
					t.tag=new Long(r.serial);
				}else{
					//一致しないので、このターゲットは捨てる。
					this._reality.changeTargetToDead(t);
				}
			}
		} catch (Exception e) {
			e.printStackTrace();
		}
	}

	public void displayChanged(GLAutoDrawable drawable, boolean modeChanged, boolean deviceChanged)
	{
	}
	/**
	 * 現在の位置に立方体を書く関数です。
	 */
	void drawCube()
	{
		// Colour cube data.
		int polyList = 0;
		float fSize = 0.5f;// マーカーサイズに対して0.5倍なので、4cmの立方体
		int f, i;
		float[][] cube_vertices = new float[][] { { 1.0f, 1.0f, 1.0f }, { 1.0f, -1.0f, 1.0f }, { -1.0f, -1.0f, 1.0f }, { -1.0f, 1.0f, 1.0f }, { 1.0f, 1.0f, -1.0f }, { 1.0f, -1.0f, -1.0f }, { -1.0f, -1.0f, -1.0f }, { -1.0f, 1.0f, -1.0f } };
		float[][] cube_vertex_colors = new float[][] { { 1.0f, 1.0f, 1.0f }, { 1.0f, 1.0f, 0.0f }, { 0.0f, 1.0f, 0.0f }, { 0.0f, 1.0f, 1.0f }, { 1.0f, 0.0f, 1.0f }, { 1.0f, 0.0f, 0.0f }, { 0.0f, 0.0f, 0.0f }, { 0.0f, 0.0f, 1.0f } };
		int cube_num_faces = 6;
		short[][] cube_faces = new short[][] { { 3, 2, 1, 0 }, { 2, 3, 7, 6 }, { 0, 1, 5, 4 }, { 3, 0, 4, 7 }, { 1, 2, 6, 5 }, { 4, 5, 6, 7 } };

		if (polyList == 0) {
			polyList = _gl.glGenLists(1);
			_gl.glNewList(polyList, GL.GL_COMPILE);
			_gl.glBegin(GL.GL_QUADS);
			for (f = 0; f < cube_num_faces; f++)
				for (i = 0; i < 4; i++) {
					_gl.glColor3f(cube_vertex_colors[cube_faces[f][i]][0], cube_vertex_colors[cube_faces[f][i]][1], cube_vertex_colors[cube_faces[f][i]][2]);
					_gl.glVertex3f(cube_vertices[cube_faces[f][i]][0] * fSize, cube_vertices[cube_faces[f][i]][1] * fSize, cube_vertices[cube_faces[f][i]][2] * fSize);
				}
			_gl.glEnd();
			_gl.glColor3f(0.0f, 0.0f, 0.0f);
			for (f = 0; f < cube_num_faces; f++) {
				_gl.glBegin(GL.GL_LINE_LOOP);
				for (i = 0; i < 4; i++)
					_gl.glVertex3f(cube_vertices[cube_faces[f][i]][0] * fSize, cube_vertices[cube_faces[f][i]][1] * fSize, cube_vertices[cube_faces[f][i]][2] * fSize);
				_gl.glEnd();
			}
			_gl.glEndList();
		}

		_gl.glPushMatrix(); // Save world coordinate system.
		_gl.glTranslatef(0.0f, 0.0f, 0.5f); // Place base of cube on marker surface.
		_gl.glRotatef(0.0f, 0.0f, 0.0f, 1.0f); // Rotate about z axis.
		_gl.glDisable(GL.GL_LIGHTING); // Just use colours.
		_gl.glCallList(polyList); // Draw the cube.
		_gl.glPopMatrix(); // Restore world coordinate system.

	}

	private final static String PARAM_FILE = "../Data/camera_para.dat";

	public static void main(String[] args)
	{
		try {
			NyARParam param = new NyARParam();
			param.loadARParamFromFile(PARAM_FILE);
			new NyARRealityGlTest_CaptureImage(param);
		} catch (Exception e) {
			e.printStackTrace();
		}
		return;
	}

}

これは、2.5系のMultiMarkerと同等の機能を実装した、NyARRealityシステムの実証実験プログラムです。複数のIDマーカ(同じ画面内に同一IDがあってもOK)を管理して、ユーザがアクセス可能なマーカRealityを提供します。

大体の流れは、まずマーカ候補を適当に識別して、未知のターゲットとしてトラッキング。その後適当なタイミングで、外部情報を元に既知のマーカーターゲットに変換。既知のマーカターゲットは、ターゲットに関する環境情報をユーザに提供する…。みたいな感じです。

ターゲットの消失と発生管理はNyARRealityが自動で行うので、ユーザは発生と消失のタイミングに合わせて、そのターゲットを修飾する形で実装を行います。また、ターゲットの状態により、ターゲットの情報(位置、色、周辺情報等)を得ることができます。

新しいシステムは、画処理系にも新手法を取り入れているので、パフォーマンスもそこそこ良くなる予定。実際に動かすまで油断はできないけれど、部品単位でみた限りでは、割と期待できると思います。

追記(2010/11/13)

コード間違ってたからか修正。あと、あと二次元系まで接続した画像追加。

NyWin32Capture/1.0.0リリース

Windows向けのキャプチャライブラリNyWin32Capture/1.0.0をリリースします。

http://nyatla.jp/nyartoolkit/wp/?page_id=361

この手のライブラリは他にもありますが、妙に複雑だったり、コンパイルが難しかったり、何かのおまけだったりするので、シンプルなのをコンセプトに作りました。

特徴は、以下の通りです。

  • C++インタフェイス。
  • 使い方が簡単
  • 同期/非同期キャプチャ両方OK
  • Windows PSDK 7.1対応 ←new

同梱サンプル

サンプルプログラムは2つ入っています。GUI制御にMFCを使ったので、ちょっとややこしい。

  • NyWin32CaptureTest – 1個のカメラから画像を取得して、ビットマップにしてウインドウに描画するプログラム。
  • NyWin32CaptureTest – 複数のカメラから画像を取得して、ビットマップにしてウインドウに描画するプログラム。(何台でも接続できるはずだけど、2台までしかテストしてない。)

サンプル

同梱サンプルはMFCの辺りがややこしいので、純粋にキャプチャするだけのコードを用意しました。

同期取得(任意タイミングで画像を取得する)

#include "NyWin32Capture.h"

using namespace NyWin32Capture;
void main(void)
{
    CoInitialize(NULL);
    {
        CaptureDeviceList cap_list;

        //キャプチャデバイスのリストから0番目のカメラを得る。
        int nod=cap_list.getNumberOfDevice();
        if(nod<1){
            throw std::exception(
                "This computer has not Capture device.");
        }

        //0番目のカメラをあける。
        CaptureDevice* d=cap_list.getDevice(0);
        d->openDevice();
        
        //インテリジェント接続を使ってキャプチャフォーマットを設定
        // QVGAの24BIT RGB
        if(!d->setVideoFormat(320,240,MEDIASUBTYPE_RGB24,30.0)){
            throw std::exception(
                "This computer dose not support the format.");
        }
        unsigned char buf[320*240*3];

        d->startCapture();

        //同期キャプチャはデバイスの準備ができるまで失敗する。
        while(!d->captureImage(buf)){
            Sleep(100);
        }
        //bufにキャプチャイメージが取れる。
        d->captureImage(buf);

        //キャプチャ停止
        d->stopCapture();

        //デバイスクローズ
        d->closeDevice();
    }
    CoUninitialize();

}

 

非同期取得(カメラからのコールバック関数でキャプチャする)

#include "NyWin32Capture.h"
#include "conio.h"


using namespace NyWin32Capture;

void MyOnCaptureImage(
    const CaptureDevice* i_sender,BYTE *pBuffer, long BufferLen)
{
    printf("OnCaptureImage! Image\n");
}

void main(void)
{
    CoInitialize(NULL);
    {
        CaptureDeviceList cap_list;

        //キャプチャデバイスのリストから0番目のカメラを得る。
        int nod=cap_list.getNumberOfDevice();
        if(nod<1){
            throw std::exception(
                "This computer has not Capture device.");
        }

        //0番目のカメラをあける。
        CaptureDevice* d=cap_list.getDevice(0);
        d->openDevice();
        
        //インテリジェント接続を使ってキャプチャフォーマットを設定
        // QVGAの24BIT RGB
        if(!d->setVideoFormat(320,240,MEDIASUBTYPE_RGB24,30.0)){
            throw std::exception(
                "This computer dose not support the format.");
        }

        //コールバックを使ったキャプチャを開始
        d->startCaptureCallback(MyOnCaptureImage);

        //何か押すまで待つ
        getch();

        //キャプチャ停止
        d->stopCapture();

        //デバイスクローズ
        d->closeDevice();
    }
    CoUninitialize();
}

2つの違いは、キャプチャの開始に使うAPIだけです。

NyARToolkitCPPにも、レンダラ部分のコードが書きあがり次第、バンドルする予定です。

NyWin32Capture

NyARToolkitCPPにはキャプチャ用のコードが無い→じゃあ作るか。

ということで、Win32のDirectShow用のカメラキャプチャライブラリ作りました。

APIはNyARToolkit for JavaのJMF Captureとよく似ていて、複数のキャプチャデバイスを扱えるようになってます。
時間ができたらNyWMCaptureとも統合しようかな。

ライセンスはMITなので、単体で使う分には強い制約はありません。

パッケージはまだないので、NyARToolkitのSubversionからチェックアウトしてください。

http://sourceforge.jp/projects/nyartoolkit/svn/view/NyWin32Capture/trunk/?root=nyartoolkit

なお、コンパイルにはWindowsSDK 7.0と6.1Aが必要です。qedit.hにバグがあったりして割と大変なので、がんばってください・・・。

 

2010/05/23追記

NyWin32Capture/1.0.0のパッケージ版をリリースしました。対応SDKをWindows PSDk 7.1にして、qedit.hに依存せずにコンパイルできるようにしました。

射影変換再び

以前実装した高速射影変換パラメータ計算器に不具合が見つかった。

見つけてくれたのはFLARManagerを作っているericさん。ありがたやー。

不具合の内容は、マーカが0,90,180,270度ぴったりのときに、高速射影変換パラメータ計算器がゼロ除算を起こして、パターン認識ができないとのこと。

原因を調べてみると、これは8元一次方程式の解き方の問題らしく、2.4系の頃からずっとあったらしい。気がつかなかったなぁ。ピボット操作をまともにしないで方程式を解いていたせいで、誤差蓄積の結果、計算に失敗するみたいだった。

というわけで、逆行列を使って誤差蓄積を少なくする方法に変更。でも8×8行列は重いので、4×4行列と2×2行列を組み合わせて解く方法を考えた。

理屈はこのへんにまとめたので、興味のある人は読んでみてね。
http://sourceforge.jp/projects/nyartoolkit/docs/tech_document0001/ja/2/tech_document0001.pdf

結果、パターン認識が失敗しにくくなり、小さいサイズのマーカの認識精度も向上。該当処理にかかる時間が倍になったのは残念だけど、全体への影響は1%以下なのでまあいいか。

実装はNyARToolkit2.5.2系としてリリース予定。既にtrunkにはコミット済みです。2.5.2では、ラスタ処理系の見直しや、静止画対応のサンプルなどをリリースする予定です。

NyARToolkit/2.5.0

NyARToolkit/2.5.0をリリースしました。

今回は、内部構造の見直しがメインです。

最も大きく変更されているのはINyARRaster周辺です。INyARBufferReaderとの統合により、直接画像のバッファ領域を所有するようになりました。バッファの参照・所有の両方に対応し、プラットフォーム依存のイメージバッファに対応しやすくなっています。

次に大きな変更点は、NyARSquareのメンバ変数変更です。従来は、imvertex,sqvertex,direction等のメンバ変数があり、一部重複したデータを持っていましたが、これがsqvertexにのみに統一されました。directionは、sqvertexの計算時にマージされます。これに伴い、NyARTransMat関数の入力変数が変更しました。

もうひとつは、NyARTransMatの引数変更です。NyARSquareの仕様変更による変更のほかに、マーカの物理サイズを指定する方法が変わりました。従来はi_widthで辺の長さを指定しましたが、今回からは矩形のoffsetを指定するようになっています。

 

これらの修正は割と内側の構造変更なので、表面上は今までと同じように使えるとおもいます。ただし、静止画ラスタを生成して処理する場合だけは、少し違うかも・・・。

 

今回はJava,C#,AS3と3種をリリースしました。新しく加わったAS3版は、FLARToolKitと一緒に使う事を想定した計算クラスのみの実装です。

 

NyARToolkitのトップページに寄付ボタンをつけてみました。気が向いた方はご寄付をお願いします。収支が安定するまでの間、サイトの運営費やら機材の購入費やらに充てたいと考えています。