Boston Dynamics사의 Big Dog은 그 기능도 출중하지만 묘하게 가는 다리와 일반 4족 생물체와는 다른 다리 구조의 낯설음으로 많은 사람들에게 충격을 주었습니다. 아직까지 못 보셨을 분들을 위해 다시 오리지널 동영상을 소개하면 다음과 같습니다.

관련 포스팅


그런데, 이 동영상의 패러디가 나왔네요. 누구나 생각할 수 있지만 아무도 생각하지 못한 Big Dog의 패러디... 피식 웃음이 나옵니다. 아래 사진을 보시면 발로 차도 균형을 유지하는 것까지 똑같이 흉내를 냈습니다.
사용자 삽입 이미지

자, 한 번 웃어봅시다.
신고
Posted by getcome
앞서 TIT의 Hirose 교수 연구실 특집을 포스팅한 적이 있었습니다.
히로세 교수님이 동물의 움직임에서 아이디어를 얻어 로봇을 만들고 있다면, 오늘 소개하는 츠쿠바 대학의 유타 교수님은 바퀴 형태의 이동 로봇을 줄기차게 만들고 계신 분입니다. 10년 전 세미나를 하러 한국에 오신 적이 있어 만나뵈었을 때 이런 대화를 나누었었습니다.

"발표하신 로봇들은 딱히 상용화를 염두에 두신 것 같지 않은데, 회사에서 위탁한 과제인가요? 아님 국가 과제로 진행하시나요?"
"나는 로봇을 만들고 싶지만 이런 로봇을 만들어달라고 의뢰하는 곳은 별로 없습니다. 그래서 다른 과제를 열심히 해서 돈을 모아 이동 로봇을 만드는데 사용합니다. 말그대로 순전히 개인(랩) 프로젝트인 셈이죠. 이동 로봇에 관련된 과제는 별로 없습니다."
재미있지 않습니까? 다른 프로젝트해서 돈 모아 하고 싶은 이동로봇 만드는데 쓴다는 소리니 말이죠.

어느 정도나 만들어낼까요? 아래 사진을 한 번 보시죠. 한 랩에서 한 해에 테스트하고 있는 이동 로봇들입니다.
사용자 삽입 이미지

더 자세히 보고 싶으시다면 아래 링크를 참조하시기 바랍니다.
http://www.roboken.esys.tsukuba.ac.jp/english/Yamabico/old/

로봇들을 자세히 보시면 아시겠지만 기본 플랫폼을 만들어 놓고 여기에 여러 가지 각자의 아이디어를 넣어 변종(?)으로 로봇을 만들고 있는 것을 확인할 수 있습니다. 국내에서 다들 이동 로봇의 공통된 플랫폼이 필요하다고 공청회에서는 떠들어 대지만 마땅히 쓸만한 하드웨어 플랫폼은 찾기 어려운 것이 현실입니다. 유타 교수처럼 실천으로 옮겨서 이렇게도 쓸 수 있고, 저렇게도 쓸 수 있다는 것을 실제로 보여 준다면 누가 그 플랫폼을 쓰지 않겠습니까?

실제로 논문이나 세미나를 통해 접해본 유타 교수님은 학자라기 보다는 "쟁이"이 가깝다는 느낌이 듭니다(논문의 질은 썩 좋은 편은 아닙니다). 국내 실정이 다들 어느 정도 나이가 들어 직급이 올라가면 인두기 들고 납 냄새 맡아가며 잘 보이지도 않는 디바이스 다리에 점퍼선 연결하는 것을 기피하는 것을 생각해 보면 한국이라말로 유타교수님같은 분들이 필요한 것 아닌가 하는 생각이 듭니다.

그나마 국내 로봇계에 기대를 걸어보는 것은 이드의 동료, 후배님들이 학계와 연구소로 쏙쏙 배치가 되고 있고 아직까지는 사회에 물들지 않은 것(?) 같기에 조금씩 변화가 있지 않을까요? 어쨌거나 말보단 실천이 중요하고, 보여주는 것이 중요하니 입 닥치고 로봇이나 빨리 만들어야 겠습니다.

자, 백여개 넘는 데모 동영상 중에서 어떤 것을 소개할 까 하다가 최근 국내에서 1억의 상금으로 로봇 개발자들을 꼬시고 있는 그랜드 챌리지 대회의 한 부분에 해당하는 기술이 구현된 데모 동영상을 먼저 소개합니다. 임의의 위치에 있는 엘리베이터 버튼을 찾아 눌러야 하는데 물론 이 동영상에서는 좀 더 문제가 쉽게 풀리도록 artifitial landmark를 사용했습니다.



두 번째 동영상은 자전거 형태의 두 바퀴 로봇입니다. Murata에서 GyroBoy라는 로봇으로 깜짝 놀랄 데모에 비하면 아무것도 아닌 것처럼 보이지만, 2000년에 만들어진 로봇이라는 것을 감안하면 꽤 재미있는 데모라고 볼 수 있습니다. 동영상의 해상도가 낮아서 눈에 잘 안뛰는데 앞 바퀴를 좌우로 움직이며 균형을 잡는 모습을 볼 수 있습니다.

신고
Posted by getcome
2008년 작업/Color-Eye2008.04.03 04:50
임베디드 비전 보드인 Smart-I를 이용하여 특정 색상을 추적하고, 그 위치로 팬-틸트 유닛을 이동하여 색상을 추적하는 시스템을 구현하였습니다. 특정 색상을 찾는 시스템이기에 Color-Eye라이는 이름을 붙였습니다. 이전에도 이러한 동일한 시스템이 많이 있었습니다만, NTSC 카메라에 이미지 그래버를 붙이고, PC에서 영상 처리는 수행하는 것이 일반적인 구성이었습니다. 오늘 소개하는 시스템은 모든 과정이 임베디드 시스템(Smart-I)에서 구현된 시스템으로 가격은 기존 시스템에 비해 1/10, 크기 역시 1/10 이하로 줄어드는 효과가 있습니다.
사용자 삽입 이미지


CMOS 센서로 부터 영상을 입력받고 영상에서 사용자가 지정한 색상을 실시간(30fps)으로 찾고, 색상을 추적하기 위해 pan-tilt를 제어하는 역할까지 smart-I 에서 수행합니다. 즉, PC는 전혀 사용하지 않습니다.

재미있는 데모를 구성하기 위해 원운동을 하는 돼지에 색종이를 매달고, 이 색상을 추적하도록 데모 셋트를 구성해 봤습니다.
사용자 삽입 이미지
사용자 삽입 이미지
사용자 삽입 이미지

이 데모 셋트는 물건너 피츠버그에서 개최되는 RoboBusiness2008에 출품하게 되었습니다. 미국에 가서 위드로봇의 기술을 잘 홍보해 주었으면 합니다.
자, 동영상으로 감상해 보시죠.


신고
Posted by getcome
로봇 분야와 개 또는 강아지는 서로 관계가 없어 보여도 로봇 역사를 뒤져보면 나름 의미있는 상관관계를 유출할 수 있다. 강아지 로봇하면 아마도 Sony의 AIBO가 먼저 떠오르겠지만 로봇 공학사에서는 일본 츠쿠바에 있는 기계기술연구소(MEL)의 MELDOG을 효시로 봐야 할 것 같다. 아래 사진에서 그 컨셉을 바로 파악할 수 있듯지 맹도견(맹인의 길을 안내하는 개)의 역할을 수행하는 로봇이다. 사람에게 도움을 주는 개의 이미지를 로봇으로 차용한 멋진 예가 될 듯 싶다. 아쉽게도 본격적인 상용화는 되지 못했다. 왜냐면... 지금으로부터 무려 28년전(1985년)에 만들어져서 당시 기술로 상용화하기에는 많은 어려움이 있었기 때문이다. 1985년이면 이제 막 마이크로프로세서가 제어 시스템에 쓰이기 시작한 시점이다. 츠쿠바에 있는 기계기술연구소를 방문하면 은퇴해서 쓸쓸이 한 구석에서 자리잡고 있는 MELDOG을 구경할 수 있다.
사용자 삽입 이미지

일본 기계기술연구소에서 만든 맹도견 로봇 MELDOG


관련 논문: Susumu T achi, Kanzuo T anie, "Electrocutaneous Communication in a Guide Dog Robot (MELDOG)", IEEE T rans. on Biomedical Engineering, Vol.32, No.7, p461, 1985

MELDOG은 장애인을 위한 로봇을 연구하는 사람들에게 많은 영감을 주었고, 최근에는 지팡이에 여러 센서를 장착하여 길안내를 하는 연구를 수행하고 있지만, 본격적으로 앞을 못 보는 사람에게 판매하기까지는 아직도 가야할 길이 멀어보인다.

그 다음에 등장하는 강아지 로봇은 Sony의 AIBO 이다. 잘 알려져 있다 싶이 이 로봇은 특정한 사용 목적이 없다. 그저 가지고 노는 "엔터테인먼트 로봇"일 뿐이다.
사용자 삽입 이미지

Sony의 AIBO. 엔터테인먼트 로봇의 시작을 알렸다.


아이보가 처음 상품화된 시점은 1999년이었다. 이드는 1998년 파리에서 열린 학회에서 프로토타입을 처음 접하고는 깜짝 놀랐던 기억이 있다. 인공지능에 관련된 부분보다는 당시 기술로 각 관절에 모터를 넣고 저 크기를 유지하는 기술이 획기적이었는데, 나름 신경써서 만든 부분인지 죄다 특허를 걸어두었다. 1999년 AIBO 등장은 로봇 공학자들에게 여러 가지 충격을 주었는데, 그 중 하나는 "아무런 의미가 없는 로봇"을 만들어도 장사가 된다는 점이었다. 당시 버블 경제의 거품이 사라지면서 일본의 많은 로봇 회사들이 힘들어했는데, 1999년에 자동차 도장용 로봇을 만들어 로봇 분야에서 손꼽이는 회사가 도산을 했다. 그런데, 같은 해 등장한 AIBO는 아무런 하는 일 없이(-도산한 회사 입장에선) 그저 노는 로봇일 뿐인데 단숨에 수 천대를 팔아해치우면서 도산한 회사보다도 많은 수익을 올렸다. 로봇 공학자 입장에서는 기가막힌 일이지만 어쨌거나 그 후로 AIBO와 같이 사람과 어울려 노는(?) 로봇 분야를 엔터테인먼트 로봇이라고 이름 붙이고, 새로운 분야가 열렸으며 많은 연구가 진행 중이다. (사실 이쪽 논문은 매우 모호해서 이게 연구인지 아니면 트렌드인지 모르겠다. 감성형 로봇이라고도 하는데 쩝... )

하지만 나름 한계가 있기 마련이다. 저가격화에 실패한 AIBO는 sony의 다양한 분야의 사업 실패의 유탄을 맞아 로봇 사업 전체를 철수하는 역풍에 휩쓸려 단종되었다. 최근 PS3 다음 버전과 맞물려 AIBO를 다시 부활시킨다는 소문이 나돌고 있지만 정확하게 확인은 되지 않으니 기다려 볼 수 밖에 없다.

Post AIBO로 중국 장난감 회사나 기타 아마추어 제작자들이 앞다퉈 유사한 시스템을 만들어 내기 시작했고, 최근에도 많이 나오고 있다. 그 중 품에 들어가는 강아지가 아닌 실제 어린애만한 큰 개를 만든 경우가 있어 동영상으로 소개한다.



똥, 오줌 가릴 필요없고, 산책시킬 필요도 없으며, 휴가갈 때 밥 줄 걱정할 필요가 없는 실제 개와 거의 흡사한 로봇 강아지가 만들어진다면 어떤 후유증이 있을까? 애완견 시장이 사라질려나? 아님 수의사들의 수입원이 줄어들려나? 어쨌거나 세상은 계속 발전할테니 수의사 선생님들도 애완견 로봇 수리공(?)으로 전업을 생각하셔야 할지도 모르겠습니다.
신고
Posted by getcome
기술동향2008.01.26 13:31
청소기 로봇은 신제품이 나오는대로 구입하여 테스트를 하고 있는터라 iRobot사의 신형 모델은 Roomba 570도 입수하여 사용 중에 있었다. 이전 모델에 비해 많은 부분이 변경, 또는 개선되었는데, 그 중 하나가 구석에 있는 먼지를 끄집어 내기 위한 사이드 브러쉬의 날개 갯수이다. 이전 모델은 양쪽으로 하나씩 그러니까 두 개만 있었는데, 신형에서는 6개로 늘어났다. 그만큼 구석에 있는 먼지를 끄집어 낼 가능성이 높아졌을 텐데...

이게 웬일인지 사이드 브러쉬의 솔이 하나씩 잘라져서 먼지통에 들어가버리기 시작하는 것이다. 첫 번째는 그럴 수도 있겠거니 했는데, 몇 일 간격으로 하나씩 잘려져서 아래 사진처럼 달랑 2개만 남게 되었다. 벽면에 무슨 칼날이 숨겨져 있는 것은 아닐것이고 해서, 좁은 공간에 가둬두고 몇 시간 동작 테스트를 해 봤더니... 오호라, 이것봐라. 솔과 중앙 회전 부분의 고무 재질의 연성이 떨어져서인지 제풀에 떨어져 나가는 것이다.

사용자 삽입 이미지

룸바는 대우전자서비스 센터에서 A/S를 담당하고 있어 전화를 걸었더니 많은 사용자로부터 그러한 문제점을 지적 받았는지 개선한 사이드 브러쉬를 무상으로 교환해 준단다. 집 근처에 재고가 있는 것을 확인한 후 지나갈 일이 있을 때 들려 받아왔다. 무상 교환을 받으려면 제품의 시리얼 번호만 가져가면 된다. 시리얼 번호는 먼지통을 빼 낸 본체 윗부분에 보면 바코드 위에 적혀있다.

사용자 삽입 이미지

새로 받아온 사이드브러쉬와 다 잘린 예전 사이드브러쉬


나사 풀어 이전 사이드브러쉬를 떼어내고, 새로운 사이드 브러쉬는 장착한 후 동작 확인. OK. 확실히 연성은 나아진 것을 확인할 수 있다.
사용자 삽입 이미지

새로운 사이드브러쉬 장착한 모습


그런데 룸바 코리아나 수입 업체인 코스모 양행의 홈페이지에는 이러한 문제점에 대한 언급은 전혀 나와있지 않다. 어딘가 공지라도 해야 사용자들이 알고 교체를 할 텐데... 문제가 있어 A/S 센터에 연락하면 그제서야 교체해 준다는 사실을 알리는 방식으로 해결할 것인지...

어쨌건 다시 오늘부터 제대로 청소기 로봇 가동이요~.

p.s. 스쿠바 배터리도 성능이 다해 신품으로 살까 했더니 대우 서비스 센터에서는 8만 5천원이란다. 헉...


신고
Posted by getcome
90년대 말에 일본에서 소프트 메카닉스라는 명칭하에 물 속에서 움직일 수 있는 로봇에 대한 연구가 활발히 진행되었었다. 그 결과 최근에 물속에서 움직이는 로봇들이 많이 등장하고 있다. 일반 지상과 달리 물 속은 사람의 이동에 많은 제한이 있으므로, 상대적으로 로봇의 필요성이 커진다. 특히 군사적인 목적으로 각 나라에서 많은 관심을 가지고 있다.

관련 과거 포스팅: Rhex





신고
Posted by getcome
어렸을 때 만화영화로 봤던 로봇을 현실세계에서 직접 구현한다는 일은 멋진 일이다. 하지만 화려한 CG와 애니메이션들로 인해 일반인들의 눈은 높을 때로 높아져서 영화에서 보는 것처럼  인간보다 어떤 면에서는 더 뛰어난 기계를 기대한다. 하지만 아쉽게도 현실은 영화와 너무나 동떨어져 있다. 현재 열심히 판매되고 있는 로봇 청소기는 조금만 실내 구조가 복잡해도 구석에 처박혀 빌빌거리기 십상이고, 두 발로 걷는 로봇들은 평평한 잘 정돈된 바닥 위에서만 움직이지, 일반 도로에서는 두 세발자국 움직이고 넘어지곤 만다. 일반인들의 기대치를 충족하는 로봇을 못 만드는 이유는 지능을 구현하는 메카니즘의 성능이 떨어지기 때문이다. 더 정확하게 표현하면 인간의 지능이 어떤 식으로 발현되는지 잘 모르기 때문에 프로그래밍을 못하고 있는 것이다.
사용자 삽입 이미지

지능이 대뇌피질의 특정 부위에서 발현된다는 사실만 알 뿐 어떤 원리로 지능이 발현되는 지는 파악이 안되고 있다.


그러다 보니 각종 전시회에 나오는 로봇들은 아직까지 외형적인 면에서 인간을 흉내내기에 바쁘다. 일본과의 엄청난 기술격차에도 불구하고 KAIST 대학원생들의 피땀어린 노력으로 일본과 거의 동등한 수준으로 만들어진 자랑스런 휴보(Hubo)도 아쉽지만 지능적인 면에서는 네 살 어린이보다 훨씬 못하다. 멋지게 두 발로 서서 걷는 데모는 보이지만, 과연 이 로봇으로 당장 써 먹을 일을 찾아보면... 그저 전시회에서 손 흔들어주는 것이 전부이다. 물론 최고 수준이라는 혼다(Honda)의 아시모(ASIMO)도 이 범주에서 벗어나기 어렵다. 앞으로 차근차근 개발해 나가는 첫걸음이라고 다들 자위하겠지만 당장 시장에나 내다 팔기에는 어려운 것이 사실이다.
사용자 삽입 이미지

30년 넘게 투자하여 ASIMO까지 왔지만 아직 작업에 투입하기에는 많은 어려움이 있다.


그런면에서 예전에 소개했던 보스턴 다이나믹사의 4족 보행 로봇 BigDog은 활용가치가 높아보인다. 만일 국내 업체가 만들었다면 이번 태안 반도의 기름 유출 사고 때 적절하게 쓸 수 있지 않았을까?

사용자 삽입 이미지

험로에서도 주행이 가능한 Bigdog

Bigdog 동영상 보기

시장 경쟁 논리에 충실한 미국은 역시나 당장 팔수 있는 당장 쓰임새가 있는 로봇 개발에 치중하고 있다. 로봇 시스템을 만들어서 흑자를 내고 있는 몇 안되는 회사 중에 하나인 iRobot에서는 일반 주택의 홈통에 쌓인 낙엽을 털어내는 Looj라는 로봇으로 세계 최대 가전 박람회인 CES2008에서 기술혁신상을 받았다. 국내에서라면 그 아이디어조차 내기도 힘든 쓰임새를 가진 로봇이다. 백문이 불여일견, 그 동작을 동영상으로 한 번 보자.

사용자 삽입 이미지

가격은 $170 밖에 안하니 큰 부담없이 구매가 가능하다.

결국 만화나 영화에서나 볼 수 있는 만능 로봇은 아직 우리 곁으로 오기는 요원하다. 당장 우리 일상에서 필요한 서비스가 무엇인지 찾아내어 그 서비스를 싼 값으로 제공할 수 있는 자동화 기계를 만드는 것, 그것이 바로 지금 로봇 회사들이 살 길이다.
신고
Posted by getcome
Wiimote을 이용해서 손가락 끝을 추적하여 마이너리티 리포트와 같은 효과를 내는 동영상 을 앞서 소개한 바 있다. 이번에 소개할 동영상은 같은 원리를 이용하되 카메라 위치를 파악하여 카메라 view port를 조절하여 화면에 3D 영상을 출력하는 예이다.

데모 동영상을 잘 살펴보면 2D 모니터에 출력되는 영상임에도 불구하고 마치 모니터를 뚫고 나온듯한 느낌을 준다. 굳이 3D 안경을 쓰지 않더라도 3D 효과를 낼 수 있다는 것을 반증하는 좋은 예이다.

신고
Posted by getcome
2007년 과제/RAVI2007.12.18 07:49
Roomba에 사진처럼 RFID  안테나를 부착했습니다. 청소 솔 중앙에 부착하여 청소 기능이 제한 되지만 당장 청소기능을 사용할 것은 아니기에 일단 계산하기 편하도록 바퀴 중앙에 배치하였습니다.
사용자 삽입 이미지

Roomba 바닥에 RFID 안테나 부착


로봇을 아무데나 위치시키고 움직이면 RFID 에 의해 자신의 위치를 파악하고, 사용자가 지정한 위치로 이동한다.




이 때 시뮬레이터에서는 particle filter의 동작이 그래픽으로 출력된다. python의 효율성 덕분에 촉박한 일정임에도 불구하도 어느 정도 결과를 낼 수 있었다.

신고
Posted by getcome
2007년 과제/RAVI2007.12.13 18:36
python으로 roomba를 제어하는 예입니다. 시뮬레이터를 python으로 작성했기 때문에 여러 가지 편의성을 생각해서 python으로 메인 제어기를 구현하고 있습니다.

바닥에 붙어있는 하얀색은 RFID이며, 시뮬레이션과는 조금 다르게 테스트의 용이성을 위해 조밀하게 붙여서 테스트를 시작하고 있습니다.

저속으로 움직이면 직진성이 조금 떨어지지만, 그래도 쓸만합니다.
몇 일 더 작업하면 완벽하게 SLAM이 구현될 수 있을 것 같은데, 연말이라서 시간이 영 나질 않네요. 그래도 빨리 끝내야겠지요? ^^;
신고
Posted by getcome

티스토리 툴바