2008년 작업/V-yond2008.03.17 17:41
사용자 삽입 이미지

2008년도 V-yond 프로젝트에는 Smart-I를 이용해서 제스쳐 인식을 넣기로 결정하였습니다. 당장 테스트가 불편하니 Wiimote를 이용해서 테스트 플랫폼을 구현해 보았습니다. Wiimote를 이용한 테스트 플랫폼이 궁금하신 분은 앞서 소개한 글을 참조하시기 바랍니다.


중앙에 관찰 물체가 있고, IR 펜의 움직임에 따라 확대, 축소, 각 축 방향으로의 회전이 가능합니다. 당장은 마우스 커서가 잘 눈에 띄지 않고, 절대 위치라는 점이 좀 불편합니다.
일단 성능을 점검하기 위한 테스트 플랫폼으로 활용하고, 추후 정식으로 Smart-I를 이용해 제작이 완료되면 다시 소개하겠습니다.
신고
Posted by getcome
2008년 작업/V-yond2008.02.18 07:00
사용자 삽입 이미지

CAVE 시스템을 구축할 때 가장 많은 시간이 소요되는 부분이 여러 대 프로젝터의 geometric&color calibration 입니다. 여러 가지 방법을 적용해 보았지만 영상 처리를 통해 자동화하는 방안이 가장 나은 방법입니다. 오늘 소개하는 방식은 light detector와 stripe pattern으로 정확한 위치를 파악하여 영상을 프로젝션하는 시스템입니다. 관련 논문에 자세히 설명이 나와있으니 관심 있는 분들은 논문을 참고해 보시기 바랍니다.
자상하게도 동영상이 있어 보다 쉽게 전체 시스템 구조를 파악할 수 있습니다.

신고
Posted by getcome
2008년 작업/V-yond2008.01.04 11:29
약 9개월간 진행된 CAVE 과제의 1차년도가 마무리 되었습니다.

1차년도의 목표는 8대의 XGA급 프로젝터를 이용하여 총 4096 x 1536 해상도 (대략 full HD의 네 배 정도 됩니다.)를 가지는 CAVE 시스템 하드웨어를 구축하는 일이었습니다. 많은 국내외 연구 단체에서 많이 제작되었지만 차별화된 점은,
 
  - 한 대의 PC에서 모든 그래픽을 처리
  - seamless 구현
  - 100% withrobot lab. 기술을 이용하여 구현

을 들 수 있습니다. 특히 Direct-X를 이용하여 low-level 코딩을 직접 수행하였으며, 이 과정에서 많은 부수적인 성과물을 얻을 수 있었습니다. 기타 연구소나 학교에서는 open source 프로그램이나 고가의 virtools와 같은 라이브러리를 이용해서 구현하지만, 직접 프로그램을 구현하다보니 1대의 PC에서도 4096 x 1536의 고해상도를 8대의 프로젝터에 seamless까지 적용하면서도 구현이 가능할 정도의 성능을 뽑아내서 쓸 수 있었습니다.

1차 년도 데모 시나리오는 가상의 섬(Virtual Silicon Island)에 반도체 교육동들을 만들어 놓고, 이곳에서 반도체 교육이 진행되는 내용입니다. 따라서 데모는 크게 VSI 주변을 tour 하는 데모와 교육동 안에서 이루어지는 반도체 제조 공정 내용입니다. 먼저 VSI tour 데모를 보시죠.


반도체 교육은 화면을 크게 세 개로 나누어 사용합니다. 좌측은 반도체 공정에서 사용하는 마스크를 표시하는 화면이고, 중앙은 해당 마스크로 작업하는 공정을 동영상으로 보여줍니다. 그리고 오른쪽은 공정이 끝났을 때의 모습과 해당 공정에 대한 간략한 설명이 PPT로 뿌려지게 됩니다. 한마디로 기존의 PPT로 동영상 출력했다, 설명 파일 보였다, 화면 공간이 좁아 이리저리 윈도우를 움직여가며 프리젠테이션을 해서 불편했었습니다. 하지만 CAVE에서는 워낙 넓은 스크린이 있다보니 편리하게 한 눈에 들어오도록 펼쳐놓고 수업이 가능합니다.
반도체 CMOS 제조 공정을 촬영한 것이라 조금 깁니다.


2008년에는 4ch를 더 추가하여 더 큰 스크린을 통해 보다 높은 몰입감을 만들어 내고, user interface 부분을 보강하여, 사용자의 제스쳐 인식이 수행될 예정입니다. 잘 되야 할텐데... 많은 부분이 또 변경되기 때문에 사실 걱정입니다. T_T;


신고
Posted by getcome
2008년 작업/V-yond2007.12.11 21:25
AVIE(Advanced Visualisation and Interaction Environment)라는 이름하여 실린더 형태의 360도 스크린을 가진 새로운 형태의 CAVE 시스템을 선보이고 있다.
사용자 삽입 이미지
참고 사이트: http://www.icinema.unsw.edu.au/projects/infra_avie.html

다행히 동영상으로도 감상할 수 있다.






신고
Posted by getcome
2008년 작업/V-yond2007.12.09 10:50
현재 제작 중인 CAVE 시스템은 프로젝터가 8대이지만, 일단 2대로 color calibration 및 seamless 테스트를 하고 있는 중이다.

사용자 삽입 이미지

프로젝터 2대 배치


일부러 삐닥하게 투사한다. 극단적인 경우를 가정하면 아래 사진처럼 두 대의 프로젝터 투사 영역은 align이 되지 않은 채로 overlap 된다.
사용자 삽입 이미지

calibaration 전


seamless 처리를 한 후 각각의 프로젝터에서 뿌린 영상은 하나의 고해상도 프로젝터에서 뿌린 것처럼 보이게 된다.
사용자 삽입 이미지

Seamless 처리 후


어떤가? 하나의 프로젝터에서 뿌린 것 처럼 보인다. 물론 중앙 부분의 align이 아직도 완벽하지는 않지만 일단 이 부분은 금방 해결될 수 있는 부분이므로, 금방 해결할 수 있다. 다음 주면 8채널의 프로젝터에서 seamless로 뿌린 테스트를 진행할 수 있을 것 같다.

신고
Posted by getcome
사용자 삽입 이미지

water wall projection

가상 현실 세계와 현실 세계의 interaction을 어떻게 구현하느냐가 몰입감의 핵심이 된다. 아직까지는 제한적인 기술로 구현하기 때문에 여러 가지 제약이 많은데...

IBM의 컴퓨터 부분을 인수한 레노버(Lenovo) 본사에는 물이 가득찬 가상 벽을 만들고 사람이 지나갈 때 이에 따른 반응을 보인다. 비슷한 개념으로 W 호텔의 로비에 설치된 인터렉티브 작품 Wooden Mirror를 들 수 있을 것 같다. V-yond 프로젝트에서도 여러 가지 interaction 기법을 도입하려고 하는데, 이 동영상이 참고 자료로 쓰일 수 있을 것 같다.

신고
Posted by getcome
2008년 작업/V-yond2007.10.09 11:29
V-yond 시스템에 올릴만한 실내 모델링을 찾고 있는데 딱 입맛에 맞는 샘플을 찾기가 어렵다. 그나마 오늘 올리는 동영상이 머리속에 그려온 모델과 유사한데.... 이런 실내를 모델링하는데 얼마나 걸리려나? 외주를 준다면 얼마나 들련지 모르겠다.

신고
Posted by getcome
2008년 작업/V-yond2007.10.05 16:35
사용자 삽입 이미지
중국 베이징 한 쇼핑몰 앞에 250m에 달하는 초대형 LED 스크린을 설치했다. 유사한 것이 라스베거스에도 유사한 것이 있는데 아마 중국 쪽이 더 길 것 같다. '스카이 스크린'이라는 이름을 가지고 있는 이 장치는 24m 높이에 설치되어 폭은 30m에 달한다. 공사비는 300억원이라니... 과연 그만한 홍보 효과를 얻을 수 있을런지는 모르겠다.


신고
Posted by getcome
2008년 작업/V-yond2007.10.04 06:07
CAVE 시스템을 구축하다보면 여러 대의 프로젝터가 배치되어야 하기 때문에 프로젝터의 위치 선정 문제가 골치아프게 된다. 또한 front projection의 경우 프로젝터가 너무 뒤에 위치하게 되면 스크린에 그림자가 생기는 문제도 발생하게 된다. 이를 근본적으로 해결하기 위해서는 back projection을 수행하면 되지만 공간의 비효율 문제를 해결해야 한다는 또 다른 문제가 발생한다. 공간의 비효율 문제는 다시 반사경을 사용하는 식으로 해결하고 있는데 이 역시 시스템을 복잡하게 만들게 되는 주범이 된다.
사용자 삽입 이미지

CAVE에서 프로젝터 위치 선정 문제는 꽤나 골치아프다.

여러 가지 방법을 고민하던 중 산요에서 8cm라는 말도 안되는 투사거리에서 80인치 스크린을 꽉 채우는 황당한 프로젝터가 출시되었다. 내부적으로 거울 반사를 통해 광축을 꺾은 후 단초점 렌즈로 이와 같은 기능을 구현하는데, 해상도는 XGA(1024x768)을 지원하며 275W짜리 UHP1 램프를 사용한다. 이정도면 대략 1500ANSI 급 프로젝터일 것으로 추정된다.
사용자 삽입 이미지

Sanyo의 LP-XL40

사용자 삽입 이미지

프로젝터가 벽면에 붙어있고, 벽면에서 불과 8cm 떨어진 것을 확인할 수 있다.

사진을 통해 보면 8cm라는 것은 프로젝터 앞면이 벽면과 떨어져야 하는 거리이며, 실제 영상이 투사되는 렌즈는 프로젝터위에 덧붙여있는 광학부에서 위치하기 때문에 실제 투사 거리는 60cm 이상이 될 것 같다.
현재 사용하고 있는 프로젝터는 80인치를 뿌리기 위해 투사 거리가 2.5m정도 필요하며, 렌즈 부분을 교환하면 좀 더 줄일 수 있지만 렌즈 수입 절차의 복잡함, 렌즈 교환시 발생할 수 있는 여러 문제점 때문에 1차년도 과제에서는 일단 기성품 형태로 사용하고 있다. 출시일은 2007년 12월로 잡혀있으며, 가격은 대략 $5,000 수준에서 결정될 예정이라고 한다.
성능에 비해 가격이 꽤 고가로 느껴지지만 일단 내년도 과제에서 한 대 사서 테스트해 볼 예정이다. 이래저래 요즘 이드의 주변에는 산요 제품이 조금씩 늘어나고 있는데, 소비자의 needs를 적절히 파악하고 있는듯 싶다.

Item turn LP-XL50 (H)
System 3 primary color liquid crystal shutter projection systems
Optical system Dichroic mirror separation/prism synthetic system
Liquid crystal panel Size 0.8 Type ## 3, aspect ratio 4: 3
Drive system Polysilicon TFT active matrix
Picture prime Pixel 786,432 (1024 ## 768) x 3 entire pixel 2,359,296 pixels
Arrangement Stripe
Illuminant 275W UHP lamp ## 1 lights
Picture size The smallest 60 type ~ maximum of 80 types
Color reproducibility Full color (16,770,000 color)
Brightness 2,000 lumina
Speaker 2W monaural
Corresponding scanning frequency Horizontality /15~100KHz and verticality /50~100Hz,
Below dot clock /140MHz, G ON Sync correspondence
Indicatory possible resolution At the time of RGB signal input 1024×768 dot
(1920×1080 dot resizing indicatory possibility)
Input/output terminal Computer input/output

Analog RGB input (2 systems); 
D-sub15 pin x 1 (with optional item “COMPONENT~D-sub cable”, correspondence to COMPONENT input)
D-sub15 pin x 1 (monitor output and change)

Analog RGB output (1 systems); Mini- D-sub15 pin x 1 (input and change)

Audio input (1 systems); Stereo mini- jack ×1
Video input

Video input (1 systems); RCA terminal x 3 (Y - Pb/Cb - Pr/Cr), 
RCA terminal x 1 (VIDEO), S terminal x 1

Audio input (1 systems); RCA terminal x 2 (stereo)
Control input/output, other things

Service port (1 systems); Mini- DIN8 pin ×1

Voice response (variable) terminal (computer/video combined use); Stereo mini- jack ×1
Use temperature 5~35℃
Power source One phase AC100V (±10%), 50/60Hz
External size (projection thing not being included) Width 374× height 196.8× depth 495mm
Mass 7.8kg
Accessory Instruction manual, guarantee, 1 installation and removal type power cords/codes, wireless remote control 1 (2 single 3 shape dry cell batteries),

reference: 제품 홍보 페이지

신고
Posted by getcome
큰 화면에 3D 가상 공간이 펼쳐져 있다. 이 공간을 돌아다니고 싶은데 어떻게 하면 좋을까?
KAIST 가상현실연구 센터에서는 운동 기구용 자전거를 사용했다. 자전거의 회전축과 핸들 방향을 감지하여 이에 알맞는 화면을 뿌리는 식으로 인터페이스를 구현했다.

또 다른 방법을 생각해 본다면 앞서 소개한 omni-directional treadmill을 사용하는 방법도 있을 것이다. 이렇게 되면 사용자의 이동방향을 treadmill에서 알아낼 수 있으므로 인터페이스 구축이 가능하다.

그럼 이런것 말고 다른 방법을 없을까? 비전을 사용해서 구현한 예가 있다. Fly like a bird라는 제목을 가진 데모로 새처럼 양팔을 펴고 퍼덕거리면 앞으로 진행된다. 왼쪽으로 날개를 기울이면 왼쪽으로 화면이 회전한다. 반대로 오른쪽으로 기울이면 오른쪽으로 회전한다.

이는 상단에 설치된 stereo vision에서 모션을 파악하여 VR 공간과 인터페이스한 예로, stereo vision 장치인 bumble bee를 사용하였다. 현재까지 상용 제품으로 스테레오 매칭을 해 주는 제품이 bumblebee 외에는 없기 때문에 국내 많은 영상 처리 관련자들도 사용하고 있는 것으로 알고 있다.
사용자 삽입 이미지

Pointgrey사의 bumblebee2



콜롬부스 달걀처럼 보고 나면 "에이, 저정도야 쉽게 할 수 있지"라고 생각하겠지만 VR 공간에서 인터페이스로 고민하던 withrobot Lab. 에게는 꽤 괜찮은 아이디어를 제공하는 것 같다. myVision USB로 당장 구현해서 테스트해 보면 재미있는 결과가 나올 것 같다. 내년 V-yond 데모때 유사한 시스템을 만들어서 테스트해 보려고 한다.

신고
Posted by getcome

티스토리 툴바