NyARToolkitCS/4.0.0 released

NyARToolkitCS/4.0.0をリリースします。

更新内容

更新内容は以下の通りです。

  • NyARToolkit/4.0.0に搭載したMarkerSystemが利用できるようになりました。
  • Processingライクな簡易スケッチシステム追加しました。
  • ユーティリティクラスのAPIを更新しました。C#のBitmapクラスとの互換性が向上しています。影響により、一部のユーティリティAPIの互換性がなくなっています。アプリケーションの修正して、代替APIを利用してください。
  • WindowsMobileをサポートしなくなりました。(要望があれば復活します。)

ダウンロード

こちらからダウンロードしてください。
http://sourceforge.jp/projects/nyartoolkit/releases/?package_id=7672

Unityバージョンについては、NyARToolkitUnityパッケージを別途作ります。しばらくお待ちください。

 

サンプル

新しいMarkerSystemとスケッチシステムを使ったSimpleLiteは、従来と比較してシンプルに実装できます。

using System;
using System.Drawing;
using System.Collections.Generic;
using System.Text;
using jp.nyatla.nyartoolkit.cs.core;
using jp.nyatla.nyartoolkit.cs.markersystem;
using NyARToolkitCSUtils;
using NyARToolkitCSUtils.Direct3d;
using NyARToolkitCSUtils.Capture;
using Microsoft.DirectX;
using Microsoft.DirectX.Direct3D;

namespace SimpleLite
{
    class Sketch : D3dSketch
    {
        private const int SCREEN_WIDTH = 640;
        private const int SCREEN_HEIGHT = 480;
        private const String AR_CODE_FILE = "../../../../../data/patt.hiro";

        private NyARD3dMarkerSystem _ms;
        private NyARDirectShowCamera _ss;
        private NyARD3dRender _rs;
        private int mid;
        public override void setup(CaptureDevice i_cap)
        {
            Device d3d=this.size(SCREEN_WIDTH, SCREEN_HEIGHT);
            i_cap.PrepareCapture(SCREEN_WIDTH, SCREEN_HEIGHT, 30.0f);
            INyARMarkerSystemConfig cf = new NyARMarkerSystemConfig(SCREEN_WIDTH, SCREEN_HEIGHT);
            d3d.RenderState.ZBufferEnable = true;
            d3d.RenderState.Lighting = false;
            d3d.RenderState.CullMode = Cull.CounterClockwise;
            this._ms = new NyARD3dMarkerSystem(cf);
            this._ss = new NyARDirectShowCamera(i_cap);
            this._rs = new NyARD3dRender(d3d, this._ms);
            this.mid = this._ms.addARMarker(AR_CODE_FILE, 16, 25, 80);

            //set View mmatrix
            this._rs.loadARViewMatrix(d3d);
            //set Viewport matrix
            this._rs.loadARViewPort(d3d);
            //setD3dProjectionMatrix
            this._rs.loadARProjectionMatrix(d3d);
            this._ss.start();
        }

        public override void loop(Device i_d3d)
        {
            lock (this._ss)
            {
                this._ms.update(this._ss);
                this._rs.drawBackground(i_d3d, this._ss.getSourceImage());
                i_d3d.BeginScene();
                i_d3d.Clear(ClearFlags.ZBuffer, Color.DarkBlue, 1.0f, 0);
                if (this._ms.isExistMarker(this.mid))
                {
                    //立方体を20mm上(マーカーの上)にずらしておく
                    Matrix transform_mat2 = Matrix.Translation(0, 0, 20.0f);
                    //変換行列を掛ける
                    transform_mat2 *= this._ms.getD3dMarkerMatrix(this.mid);
                    // 計算したマトリックスで座標変換
                    i_d3d.SetTransform(TransformType.World, transform_mat2);
                    // レンダリング(描画)
                    this._rs.colorCube(i_d3d,40);
                }
                i_d3d.EndScene();
            }
            i_d3d.Present();
        }
        public override void cleanup()
        {
            this._rs.Dispose();
        }
        static void Main(string[] args)
        {
            new Sketch();
        }
    }
}

NyARToolkitV4 alpha

NyARToolkitV4のAPIの実装が終わりました。パッケージを作るのはまだ先になりそうなので、Subversionリポジトリにソースコードをコミットしました。もしよろしければ、バグ探しにお付き合いください。

リビジョン番号は、906になります。

NyARToolkitV4 alpha version is committed  on SVN repository at rev 906. The package release will be released at a few weeks after.  Please try, if you like it!

http://sourceforge.jp/projects/nyartoolkit/svn/view/NyARToolkit/trunk/?root=nyartoolkit

追加機能

  • MarkerSystemの追加
  • JavaGraphicsとの相互運用性の向上
  • スケッチシステムの追加
  • 画像処理機構の再構築
  • ARToolkitV4 proとのインタフェイスの追加
  • その他、APIの変更など沢山

MarkerSystemの追加

MarkerSystemは、ARマーカとNyIdと同時に複数使用できる、新しいマーカ管理モジュールです。NyARToolkit.sample.joglにサンプルコードがあります。

このモジュールは、コンフィギュレーション、画像取得(センサ)、マーカ管理、画像出力(レンダラ)の4モジュールで構成されています。例えば、画像取得モジュールにはQuickTime、JMF、NyARSensorの3種類があり、これらを切り替えて使うことが出来ます。
今回のMarkerSystemは頂点トラッキング機能があり、従来よりも低速時の追従性が向上しています。

JavaGraphicsとの相互運用性の向上

NyARRasterを介して、BufferedImage、OpenGLテクスチャの間で、画像データの相互運用が出来るようになりました。BufferedImageをOpenGLテクスチャに書き込んだり、元画像をbufferedImageで処理したりすることが容易にできます。

スケッチシステムの追加

processingライクな簡易スケッチシステムを追加しました。プロトタイピングが簡単になります。例えば、SimpleLiteをスケッチシステムとMarkerSystemを使って実装すると、60行ほどでプログラムが完成します。

package jp.nyatla.nyartoolkit.jogl.sample.sketch;

import javax.media.opengl.*;
import jp.nyatla.nyartoolkit.*;
import jp.nyatla.nyartoolkit.jmf.utils.*;
import jp.nyatla.nyartoolkit.jogl.sketch.GlSketch;
import jp.nyatla.nyartoolkit.jogl.utils.*;
import jp.nyatla.nyartoolkit.markersystem.NyARMarkerSystemConfig;
/**
 * JMFからの映像入力からマーカ1種を検出し、そこに立方体を重ねます。
 * ARマーカには、patt.hiroを使用して下さい。
 */
public class SimpleLite extends GlSketch
{
  private NyARJmfCamera camera;
  private NyARGlMarkerSystem nyar;
  private NyARGlRender render;
  public void setup(GL gl)throws NyARException
  {
    this.size(640,480);
    NyARMarkerSystemConfig config = new NyARMarkerSystemConfig(640,480);
    this.camera=new NyARJmfCamera(config,30.0f);//create sensor system
    this.nyar=new NyARGlMarkerSystem(config);   //create MarkerSystem
    this.render=new NyARGlRender(this.nyar);

    this.id=this.nyar.addARMarker(ARCODE_FILE,16,25,80);
    gl.glEnable(GL.GL_DEPTH_TEST);
    this.camera.start();
  }
  private final static String ARCODE_FILE = "../../Data/patt.hiro";
  private int id;

  public void draw(GL gl)
  {
    synchronized(this.camera){
      try {
        this.render.drawBackground(gl, this.camera.getSourceImage());
        this.render.loadARProjectionMatrix(gl);
        this.nyar.update(this.camera);
        if(this.nyar.isExistMarker(this.id)){
          this.render.loadMarkerMatrix(gl,this.id);
          this.render.colorCube(gl,40,0,0,20);
        }
        Thread.sleep(1);
      } catch (Exception e) {
        e.printStackTrace();
      }
    }
  }
  public static void main(String[] args)
  {
    try {
      new SimpleLite();
    } catch (Exception e) {
      e.printStackTrace();
    }
    return;
  }
}

画像処理機構の再構築

COMインタフェイスを参考にした画像処理機構を導入しました。従来は画像処理機構と画像オブジェクトが分離したモデルでしたが、今回のモデルでは画像オブジェクトが処理インタフェイスを提供し、アプリケーションはインタフェイスを介して画像オブジェクトを操作する形になりました。低速な汎用の処理系と組み合わせることで、高速性と汎用性を両立し、新しい画像形式や画像処理のオフロード対応を容易にします。

ARToolkitV4 proとのインタフェイスの追加

ARToolKit Professionalある位置合わせ技術を使用するためのインタフェイスを追加しました。Pro版については、近いうちにARToolworksから使えるようにしてもらいます。(多分有料)

なお、ARToolKit Professional版の機能を利用する為の変更は、以下のようにコンフィギュレーションの切替(1行)のみで行えます。

:
this.size(640,480);
//This line activates NyARToolkit professional!
NyARProMarkerSystemConfig config = new NyARProMarkerSystemConfig(640,480);
//NyARMarkerSystemConfig(640,480);
this.camera=new NyARJmfCamera(config,30.0f);//create sensor system
this.nyar=new NyARGlMarkerSystem(config);   //create MarkerSystem
this.render=new NyARGlRender(this.nyar);

その他、APIの変更など沢山

リファクタリング、頻度の低い関数の変更、画像処理系の変更に伴う多量の更新が有ります。

不具合報告/ご要望は、twitter、又はフォーラムまでお寄せください。
please your message to Twitter @nyatla or Forum.

次期NyARToolKitのサンプルになる予定のプログラム

莫大な量のバグと仕様変更に悩まされる今日この頃、皆様いかがお過ごしでしょうか。次期NyARToolKitのテストプログラムがやっと書けるレベルになったので、チラ見せ。書けるだけで、まだまだ動かないけれど。

package jp.nyatla.nyartoolkit.dev.rpf.reality.nyartk.gl;

import java.awt.Frame;
import java.awt.Insets;
import java.awt.event.WindowAdapter;
import java.awt.event.WindowEvent;

import javax.media.Buffer;
import javax.media.opengl.*;
import javax.media.opengl.glu.GLU;

import jp.nyatla.nyartoolkit.NyARException;
import jp.nyatla.nyartoolkit.core.param.NyARParam;
import jp.nyatla.nyartoolkit.core.transmat.NyARTransMatResult;
import jp.nyatla.nyartoolkit.detector.NyARSingleDetectMarker;
import jp.nyatla.nyartoolkit.dev.rpf.mklib.RawbitSerialIdTable;
import jp.nyatla.nyartoolkit.dev.rpf.reality.nyartk.NyARRealityTarget;
import jp.nyatla.nyartoolkit.dev.rpf.reality.nyartk.NyARRealityTargetList;
import jp.nyatla.nyartoolkit.dev.rpf.realitysource.nyartk.NyARRealitySource_Jmf;
import jp.nyatla.nyartoolkit.jmf.utils.JmfCaptureDevice;
import jp.nyatla.nyartoolkit.jmf.utils.JmfCaptureDeviceList;
import jp.nyatla.nyartoolkit.jmf.utils.JmfCaptureListener;
import jp.nyatla.nyartoolkit.jogl.utils.NyARGLUtil;

import com.sun.opengl.util.Animator;

/**
 * NyARRealityシステムのサンプル。
 * 複数のIDマーカを同時に区別するサンプルです。同一画面内に同じIDが複数あってもOK
 *
 * サンプル実装なのでまだ全然動かないよ。
 * @author nyatla
 *
 */
public class NyARRealityGlTest_CaptureImage implements GLEventListener, JmfCaptureListener
{

	private final static int SCREEN_X = 640;
	private final static int SCREEN_Y = 480;

	private Animator _animator;
	private JmfCaptureDevice _capture;

	private GL _gl;
	private GLU _glu;

	private Object _sync_object=new Object();

	NyARRealityGl _reality;
	NyARRealitySource_Jmf _src;
	RawbitSerialIdTable _mklib;

	public NyARRealityGlTest_CaptureImage(NyARParam i_param) throws NyARException
	{
		Frame frame = new Frame("NyARReality on OpenGL");

		// キャプチャの準備
		JmfCaptureDeviceList devlist = new JmfCaptureDeviceList();
		this._capture = devlist.getDevice(0);
		if (!this._capture.setCaptureFormat(SCREEN_X, SCREEN_Y, 30.0f)) {
			throw new NyARException();
		}
		this._capture.setOnCapture(this);
		//Realityの構築
		i_param.changeScreenSize(SCREEN_X, SCREEN_Y);
		//キャプチャ画像と互換性のあるRealitySourceを構築
		this._src=new NyARRealitySource_Jmf(this._capture.getCaptureFormat(),1);
		//OpenGL互換のRealityを構築
		this._reality=new NyARRealityGl(i_param,0.1,100,3,3);
		//マーカライブラリ(NyId)の構築
		this._mklib= new RawbitSerialIdTable(10);
		//マーカサイズテーブルの作成(とりあえず全部4cm)
		this._mklib.addAnyItem(40);

		// 3Dを描画するコンポーネント
		GLCanvas canvas = new GLCanvas();
		frame.add(canvas);
		canvas.addGLEventListener(this);
		frame.addWindowListener(new WindowAdapter() {
			public void windowClosing(WindowEvent e)
			{
				System.exit(0);
			}
		});

		frame.setVisible(true);
		Insets ins = frame.getInsets();
		frame.setSize(SCREEN_X + ins.left + ins.right, SCREEN_Y + ins.top + ins.bottom);
		canvas.setBounds(ins.left, ins.top, SCREEN_X, SCREEN_Y);
	}

	public void init(GLAutoDrawable drawable)
	{
		this._gl = drawable.getGL();
		this._gl.glEnable(GL.GL_DEPTH_TEST);
		this._gl.glClearColor(0.0f, 0.0f, 0.0f, 0.0f);
		// NyARToolkitの準備
		try {
			// キャプチャ開始
			_capture.start();
		} catch (Exception e) {
			e.printStackTrace();
		}
		this._animator = new Animator(drawable);
		this._animator.start();
		return;
	}

	public void reshape(GLAutoDrawable drawable, int x, int y, int width, int height)
	{
		_gl.glClear(GL.GL_COLOR_BUFFER_BIT | GL.GL_DEPTH_BUFFER_BIT);
		_gl.glViewport(0, 0, width, height);

		// 視体積の設定
		_gl.glMatrixMode(GL.GL_PROJECTION);
		_gl.glLoadIdentity();
		// 見る位置
		_gl.glMatrixMode(GL.GL_MODELVIEW);
		_gl.glLoadIdentity();
	}

	private double[] __display_wk = new double[16];

	public void display(GLAutoDrawable drawable)
	{
		//RealitySourceにデータが処理する。
		if(!this._src.isReady())
		{
			return;
		}

		// 背景を書く
		this._gl.glClear(GL.GL_COLOR_BUFFER_BIT | GL.GL_DEPTH_BUFFER_BIT); // Clear the buffers for new frame.
		try{
			synchronized(this._sync_object){

				NyARGLUtil.drawBackGround(this._glu,this._src._rgb_source, 1.0);
				// Projection transformation.
				this._gl.glMatrixMode(GL.GL_PROJECTION);
				this._gl.glLoadMatrixd(this._reality.refGlFrastumRH(), 0);
				//ターゲットリストを走査して、画面に内容を反映
				NyARRealityTargetList tl=this._reality.refTargetList();
				for(int i=tl.getLength()-1;i>=0;i--){
					NyARRealityTarget t=tl.getItem(i);
					switch(t.getTargetType())
					{
					case NyARRealityTarget.RT_KNOWN:
						this._gl.glMatrixMode(GL.GL_MODELVIEW);
						// Viewing transformation.
						this._gl.glLoadIdentity();
						// 変換行列をOpenGL形式に変換(ここ少し変えるかも)
						NyARGLUtil.toCameraViewRH(t.refTransformMatrix(), __display_wk);
						_gl.glLoadMatrixd(__display_wk, 0);
						// All other lighting and geometry goes here.
						drawCube();
						break;
					case NyARRealityTarget.RT_UNKNOWN:

						break;
					}
				}
			}
			Thread.sleep(1);// タスク実行権限を一旦渡す
		}catch(Exception e){
			e.printStackTrace();
		}

	}

	/**
	 * カメラのキャプチャした画像を非同期に受け取る関数。
	 * 画像を受け取ると、同期を取ってRealityを1サイクル進めます。
	 */
	public void onUpdateBuffer(Buffer i_buffer)
	{
		try {
			synchronized (this._sync_object)
			{
				this._src.setImage(i_buffer);
				this._reality.progress(this._src);
				//UnknownTargetを1個取得して、遷移を試す。
				NyARRealityTarget t=this._reality.selectSingleUnknownTarget();
				if(t==null){
					return;
				}
				//ターゲットに一致するデータを検索
				RawbitSerialIdTable.SelectResult r=new RawbitSerialIdTable.SelectResult();
				if(this._mklib.selectTarget(t,this._src,r)){
					//テーブルにターゲットが見つかったので遷移する。
					if(!this._reality.changeTargetToKnown(t,r.artk_direction,r.marker_width)){
					//遷移の成功チェック
						return;//失敗
					}
					//遷移に成功したので、tagにユーザ定義情報を書きこむ。
					t.tag=new Long(r.serial);
				}else{
					//一致しないので、このターゲットは捨てる。
					this._reality.changeTargetToDead(t);
				}
			}
		} catch (Exception e) {
			e.printStackTrace();
		}
	}

	public void displayChanged(GLAutoDrawable drawable, boolean modeChanged, boolean deviceChanged)
	{
	}
	/**
	 * 現在の位置に立方体を書く関数です。
	 */
	void drawCube()
	{
		// Colour cube data.
		int polyList = 0;
		float fSize = 0.5f;// マーカーサイズに対して0.5倍なので、4cmの立方体
		int f, i;
		float[][] cube_vertices = new float[][] { { 1.0f, 1.0f, 1.0f }, { 1.0f, -1.0f, 1.0f }, { -1.0f, -1.0f, 1.0f }, { -1.0f, 1.0f, 1.0f }, { 1.0f, 1.0f, -1.0f }, { 1.0f, -1.0f, -1.0f }, { -1.0f, -1.0f, -1.0f }, { -1.0f, 1.0f, -1.0f } };
		float[][] cube_vertex_colors = new float[][] { { 1.0f, 1.0f, 1.0f }, { 1.0f, 1.0f, 0.0f }, { 0.0f, 1.0f, 0.0f }, { 0.0f, 1.0f, 1.0f }, { 1.0f, 0.0f, 1.0f }, { 1.0f, 0.0f, 0.0f }, { 0.0f, 0.0f, 0.0f }, { 0.0f, 0.0f, 1.0f } };
		int cube_num_faces = 6;
		short[][] cube_faces = new short[][] { { 3, 2, 1, 0 }, { 2, 3, 7, 6 }, { 0, 1, 5, 4 }, { 3, 0, 4, 7 }, { 1, 2, 6, 5 }, { 4, 5, 6, 7 } };

		if (polyList == 0) {
			polyList = _gl.glGenLists(1);
			_gl.glNewList(polyList, GL.GL_COMPILE);
			_gl.glBegin(GL.GL_QUADS);
			for (f = 0; f < cube_num_faces; f++)
				for (i = 0; i < 4; i++) {
					_gl.glColor3f(cube_vertex_colors[cube_faces[f][i]][0], cube_vertex_colors[cube_faces[f][i]][1], cube_vertex_colors[cube_faces[f][i]][2]);
					_gl.glVertex3f(cube_vertices[cube_faces[f][i]][0] * fSize, cube_vertices[cube_faces[f][i]][1] * fSize, cube_vertices[cube_faces[f][i]][2] * fSize);
				}
			_gl.glEnd();
			_gl.glColor3f(0.0f, 0.0f, 0.0f);
			for (f = 0; f < cube_num_faces; f++) {
				_gl.glBegin(GL.GL_LINE_LOOP);
				for (i = 0; i < 4; i++)
					_gl.glVertex3f(cube_vertices[cube_faces[f][i]][0] * fSize, cube_vertices[cube_faces[f][i]][1] * fSize, cube_vertices[cube_faces[f][i]][2] * fSize);
				_gl.glEnd();
			}
			_gl.glEndList();
		}

		_gl.glPushMatrix(); // Save world coordinate system.
		_gl.glTranslatef(0.0f, 0.0f, 0.5f); // Place base of cube on marker surface.
		_gl.glRotatef(0.0f, 0.0f, 0.0f, 1.0f); // Rotate about z axis.
		_gl.glDisable(GL.GL_LIGHTING); // Just use colours.
		_gl.glCallList(polyList); // Draw the cube.
		_gl.glPopMatrix(); // Restore world coordinate system.

	}

	private final static String PARAM_FILE = "../Data/camera_para.dat";

	public static void main(String[] args)
	{
		try {
			NyARParam param = new NyARParam();
			param.loadARParamFromFile(PARAM_FILE);
			new NyARRealityGlTest_CaptureImage(param);
		} catch (Exception e) {
			e.printStackTrace();
		}
		return;
	}

}

これは、2.5系のMultiMarkerと同等の機能を実装した、NyARRealityシステムの実証実験プログラムです。複数のIDマーカ(同じ画面内に同一IDがあってもOK)を管理して、ユーザがアクセス可能なマーカRealityを提供します。

大体の流れは、まずマーカ候補を適当に識別して、未知のターゲットとしてトラッキング。その後適当なタイミングで、外部情報を元に既知のマーカーターゲットに変換。既知のマーカターゲットは、ターゲットに関する環境情報をユーザに提供する…。みたいな感じです。

ターゲットの消失と発生管理はNyARRealityが自動で行うので、ユーザは発生と消失のタイミングに合わせて、そのターゲットを修飾する形で実装を行います。また、ターゲットの状態により、ターゲットの情報(位置、色、周辺情報等)を得ることができます。

新しいシステムは、画処理系にも新手法を取り入れているので、パフォーマンスもそこそこ良くなる予定。実際に動かすまで油断はできないけれど、部品単位でみた限りでは、割と期待できると思います。

追記(2010/11/13)

コード間違ってたからか修正。あと、あと二次元系まで接続した画像追加。

NyWin32Capture/1.0.0リリース

Windows向けのキャプチャライブラリNyWin32Capture/1.0.0をリリースします。

http://nyatla.jp/nyartoolkit/wp/?page_id=361

この手のライブラリは他にもありますが、妙に複雑だったり、コンパイルが難しかったり、何かのおまけだったりするので、シンプルなのをコンセプトに作りました。

特徴は、以下の通りです。

  • C++インタフェイス。
  • 使い方が簡単
  • 同期/非同期キャプチャ両方OK
  • Windows PSDK 7.1対応 ←new

同梱サンプル

サンプルプログラムは2つ入っています。GUI制御にMFCを使ったので、ちょっとややこしい。

  • NyWin32CaptureTest – 1個のカメラから画像を取得して、ビットマップにしてウインドウに描画するプログラム。
  • NyWin32CaptureTest – 複数のカメラから画像を取得して、ビットマップにしてウインドウに描画するプログラム。(何台でも接続できるはずだけど、2台までしかテストしてない。)

サンプル

同梱サンプルはMFCの辺りがややこしいので、純粋にキャプチャするだけのコードを用意しました。

同期取得(任意タイミングで画像を取得する)

#include "NyWin32Capture.h"

using namespace NyWin32Capture;
void main(void)
{
    CoInitialize(NULL);
    {
        CaptureDeviceList cap_list;

        //キャプチャデバイスのリストから0番目のカメラを得る。
        int nod=cap_list.getNumberOfDevice();
        if(nod<1){
            throw std::exception(
                "This computer has not Capture device.");
        }

        //0番目のカメラをあける。
        CaptureDevice* d=cap_list.getDevice(0);
        d->openDevice();
        
        //インテリジェント接続を使ってキャプチャフォーマットを設定
        // QVGAの24BIT RGB
        if(!d->setVideoFormat(320,240,MEDIASUBTYPE_RGB24,30.0)){
            throw std::exception(
                "This computer dose not support the format.");
        }
        unsigned char buf[320*240*3];

        d->startCapture();

        //同期キャプチャはデバイスの準備ができるまで失敗する。
        while(!d->captureImage(buf)){
            Sleep(100);
        }
        //bufにキャプチャイメージが取れる。
        d->captureImage(buf);

        //キャプチャ停止
        d->stopCapture();

        //デバイスクローズ
        d->closeDevice();
    }
    CoUninitialize();

}

 

非同期取得(カメラからのコールバック関数でキャプチャする)

#include "NyWin32Capture.h"
#include "conio.h"


using namespace NyWin32Capture;

void MyOnCaptureImage(
    const CaptureDevice* i_sender,BYTE *pBuffer, long BufferLen)
{
    printf("OnCaptureImage! Image\n");
}

void main(void)
{
    CoInitialize(NULL);
    {
        CaptureDeviceList cap_list;

        //キャプチャデバイスのリストから0番目のカメラを得る。
        int nod=cap_list.getNumberOfDevice();
        if(nod<1){
            throw std::exception(
                "This computer has not Capture device.");
        }

        //0番目のカメラをあける。
        CaptureDevice* d=cap_list.getDevice(0);
        d->openDevice();
        
        //インテリジェント接続を使ってキャプチャフォーマットを設定
        // QVGAの24BIT RGB
        if(!d->setVideoFormat(320,240,MEDIASUBTYPE_RGB24,30.0)){
            throw std::exception(
                "This computer dose not support the format.");
        }

        //コールバックを使ったキャプチャを開始
        d->startCaptureCallback(MyOnCaptureImage);

        //何か押すまで待つ
        getch();

        //キャプチャ停止
        d->stopCapture();

        //デバイスクローズ
        d->closeDevice();
    }
    CoUninitialize();
}

2つの違いは、キャプチャの開始に使うAPIだけです。

NyARToolkitCPPにも、レンダラ部分のコードが書きあがり次第、バンドルする予定です。