<스크립트는 밑에 있습니다>

 오늘의 TED받아적기 주제는, "맹인을 위한 자동차 개발" 입니다. 맹인을 위한 자동차라는 개념은 얼핏 듣기에 저는 참 위험한 발상이라고 생각되었습니다. 지금 무인 자동차나, 스스로 자동으로 움직이는 자동차를 궁극적인 목표로 잡고 있는 분위기에 맹인들이 운전하는 자동차라니? 하지만 이런 의문은 강연을 통해서 모두 해결할 수 있었습니다.

 데니스 홍은 시각장애인을 위한 자동차를 개발하기 앞서, 세계적으로 유명한 무인자동차 경연 대회가 되어버린 DARPA Urban Challenge에서 수상하여 50만달러를 거머쥔 경력이 있습니다. 이 대회에서 폭스바겐과 스탠포드대학의 무인자동차가 굴지의 1위로 남아있기도 하죠. 

<손가락 좀 눌러주세요~>
                      

 DARPA Urban Challenge 에서 좋은 결과를 얻은 후, 강연자는 축적된 무인자동차 기술을 가지고 후속 연구프로젝트를 찾던 도중, NFB(전국맹인연합)에서 맹인들이 안전하고 독립적으로 운전을 할 수 있는 자동차를 개발할 팀을 찾는 것을 알게 되었습니다. 처음에는 단순히 이미 만든 경험이 있는 무인 자동차에 맹인을 태우는 것이 전부라 생각하였다고 합니다만, 이는 맹인연합이 원했던 바가 아니었습니다. NFB가 가장 원했던 자동차의 조건은 '독립적'으로 운전할 수 있어야 한다는 것이었기 때문입니다. 

 그래서 강연자의 연구 팀은 거의 처음부터 다시 시작해야 했습니다. 먼저 오프로드 카트로 맹인들을 대상으로 하는 시범 연구를 했습니다. 과연 맹인자동차 연구가 실행 가능한 것인지 알아보기 위한 것이었죠. 그런데 이 실험은 꽤 성공적이어서, 본격적인 실험에 필요한 기초적인 정보들을 알 수 있도록 해주었습니다. 연구팀이 얻은 중요한 사실은, 맹인이 운전을 하는 데에는 세 단계의 프로세스가 필요하다는 것이었습니다.

한 맹인이 시범연구로 개발된 프로토타입 자동차를 운전하고 있다.


 첫 번째 단계는 Perception (지각/인식) 입니다. 운전을 한다는 것은 실제로 엄청난 양을 정보를 인식할 수 있어야 가능한 것입니다. 그리고 맹인들이 운전을 할 수 없었던 이유는, 운전에 필요한 대부분의 정보들이 시각을 통해서 들어오기 때문입니다. 시각이 없이는 속도, 앞 차와의 거리, 진행방향, 거울을 통한 전방위 차량과의 거리 등을 제대로 인식을 할 수가 없습니다. 그래서 시각장애인들은 이런 불리함을 극복하기 위해 보조적인 장치가 필요로 합니다. 다행히 이를 위한 기술들은(예를 들어 차선 인식, 장애물 인식, 속도 인식 etc. ) 무인자동차 기술을 통해서 대부분 개발되어 있다고 합니다.


 두 번째 단계는 '계산'입니다. 자동차에 정착된 컴퓨터는 보조장치를 통해서 들어온 정보를 처리하여, 가장 안전한 속력, 차와의 거리, 방향등을 산출하여 운전자에게 알려줄 준비를 합니다. 그리고 이 정보 그대로를 운전자가 인식할 수 있도록 가공을 하여 전달을 합니다. 하지만 여기서 본격적인 문제가 생깁니다. 시각장애인들에게 어떻게 정보를 전달하고, 지시를 내리는지에 대한 기술이 전무하기 때문입니다.
 

시각장애인들에게 어떻게 알려주지?


 본격적인 난제 해결에 나선 연구팀은 시각장애인들에게 컴퓨터로부터 나온 정보와 지시를 효율적으로 전달하기 위한 여러 장비를 만들기 시작했고 프로토 타입 제작에 성공합니다. 이 장비 시스템을 일컬어 Non-Visual Interfaces (비시각사용자환경?)라고 합니다. 이 중 한가지는 최신 자동차에 달려 주차 시 "삐" 소리로 도움을 주는 장비도 포함되어 있지만, 강연자는 전래 없는 장비 몇가지를 중점적으로 소개를 해주었습니다.    
 
먼저 DriveGrip 입니다. 이 장비는 장갑처럼 착용하는 것으로, 스티어링 휠을 잡고 있는 양 손에 진동을 주어 자동차의 진행방향과 스티어링휠을 어느정도 돌려야 하는지 알려줍니다.  

 두 번째 장비는 SpeedStrip 입니다. 이 장비는 의자로서, 역시 진동을 통하여 정보를 전달합니다. 밑에 사진에 의자 위 시트커버가 진동 장치인데, 마사지용으로 출시된 것을 개조한 것이라고 합니다. : ) 운전자는 진동으로 지금 차량의 속도가 어느정도인지 알 수 있고, 또 얼마나 가속페달을 밟아야하는지, 혹은 브레이크 페달을 밟는 시점을 지시받습니다.

 이 두 장비를 통해 시각장애인은 꽤나 효과적으로 운전을 할 수 있었다고 합니다. 하지만 새로운 문제가 있었습니다. 바로 이런 방식으로는 운전자에게 실질적인 자유가 없기 때문에 프로젝트의 목적에 부합하지 않는다는 것이었습니다. 결국 시키는 대로 하는 로봇이 운전하는 것과 마찬가지이기 때문입니다. 앞의 두 장비는 단순히 안전하게 운전하기 위한 지시를 내리는 데에 주로 초점이 맞추어 져 있다고 볼 수 있습니다.  

 그래서 연구팀은 정보를 전달하는 방법에 초점을 맞추어 장비를 개발하였고 이는 AirPix라는 장치로 등장하였습니다. AirPix는 작은 구멍이 많이 뚤린 타블렛으로 구멍을 통하여 바람이 나옵니다. 그리고 타블렛 위에 시각장애인이 손을 얹고 있으면, 구멍을 통해 나오는 바람으로 그림을 인식할 수 있습니다. 일종의 점자 그림으로 볼 수 있을 것 같습니다. 이 장비는 자동차에 달린 카메라로 찍힌 도로의 이미지를 컴퓨터로 재구성하여 AirPix에 맞는 그림으로 출력을 합니다. 이 장비를 통해서 운전자는 진동장비가 시키는 대로 하는 것 뿐만이 아니라, AirPix를 통해 실제 자신이 원하는 방법으로 자동차를 운전할 수 있습니다.

AirPix로 운전자는 도로를 지도처럼 볼 수 있다.


 이러한 장비 개발의 도움에 힘입어, 마침내 연구팀은 데이토나 자동차 경주대회에서, 완성된 시각장애인용 자동차를 시연하는 이벤트를 성공적으로 마쳤습니다. 시연에 참가한 시각장애인이 장애물을 피하며, 트랙을 완주했을 때 표정이 매우 감격스러워 보입니다. 아마도 시각장애인으로서 일반인들과 같이 운전을 할 수 있다는 희망 자체가 그들에게는 선물과 같을 것입니다.


 하지만 우려의 목소리도 있습니다. 일반인들도 운전을 하여도 안전하지 않은 도로 위에 수많은 불리함을 가지고 있는 시각장애인이 운전을 한다는 것은 매우 위험하다는 것입니다. 하지만 강연자는, 자신이 개발한 시각장애인용 자동차는 완전히 개발된 것이 아니고, 앞으로 어떤 신기술을 통해 안전성이 확보될 때 까지 도로에서 보는 일은 없을 것이라고 합니다. 다만 그는 언젠가는 진보된 기술이 시각장애인용 자동차에 안정성을 더 높일 것이며,그 미래는 꼭 올 것이라 믿는다고 합니다.
 
 또 그는 연구팀이 개발한 기술이 맹인자동차에만 국한된 것이 아니라고 강조합니다. 더 중요한 것은 이 자동차를 위해 개발된 non-visual interface가 시각장애인들(또는 일반인들)의 삶의 향상에 기여할 것이기 때문입니다. 그동안 시각장애인들을 위한 기술 개발엔 너무 관심이 없었던 것이 사실입니다. 이런 기술 개발에 힘 입어, 많은 분들이 혜택을 입었으면 하는 바람을 가지며 이번 TED 받아쓰기 마칩니다.

PS. 운전의 자유를 중시하기 전에, 모두의 안전이 중요하기 때문에, 저는 모든 자동차들이 궁극적으로 사람의 판단이 배제될 정도로 자동화가 되어야 한다고 생각합니다. 자동차는 인간의 감각기관이 따라가기에는 너무 빠릅니다. 그러니 사고가 끊이지 않는거죠..  여러분은 어떻게 생각하시나요..?

<손가락좀 눌러주세요 수줍게~>
 


<아래는 스크립트>
Many believe driving is an activity solely reserved for those who can see. A blind person driving a vehecle safely and independently was thought to be an impossible task, until now. Hello my name is Dennis Hong and we are bringing freedom and independence to the blind. by building a vehicle for the visually impaired. So before I talk about this car for the blind, let me briefly tell you about another project that I worked on called DARPA Urban Challenge. Now this was about building a robotic car that can drive itself. You press 'start' and nobody touches anything and it can reach its destination fully autonomously. So in 2007, our team won half a million dollars by placing third place in this competition. So about that time, the National Federation of Blinds challenged the research committee about who can develop  a car that lets a blind person drive safely and independently. We decided to give it a try because we thought, hey, how hard could it be. We have already an autonomous vehicle. We just put a blind person in it and we are done right? We could have beed more wrong. What NFB wanted was not a vehicle that can drive a blind person around, but a vehicle where a blind person can make active decisions and drive. So we had to throw everything out the window and start from the scratch. So to test this crazy idea, so we developed a small dune buggy prototype vehicle to test the feasibility. And in the summer of 2009, we invited dozens of blind youth from all over the country and gave them a chance to take it for a spin. It was an absolutely amazing experience. But the problem of this car was it was designed to only be driven in a very controlled environment in a flat closed-off parking lot even the lanes defined by red traffic cones. So with this success we decided to take the next big step, to develop a real car that can be driven on real roads. So how does it work? It's rather complex system, but let me try to explain it, maybe simplify it. So we have three steps. We have perception, computation, and non visual interfaces.
Now obviously the driver cannot see, so the system needs to perceive the environment and gather information for the driver. For that, we use an initial measurment unit. So it measures acceleration angular acceleration like a human inner ear. We fuse that information with a GPS  unit to get an estimate of the location of the car. we also use two cameras to detect the lanes of the road. And we also use three laser range finders. The lasers scan the environment to detect obstacles a car approaching from the front the back and also any obstacles that run into t he roads, any obstacles around the vehicle.
So all this vast amout of information is then fed into the computer, and the computer can do two things. One is, first of all, process this information to have an understanding of the environment these are the lanes of the road, there's the obstacles and convey this information to the driver. The system is also smart enough to figure out the safest way to operate the car. So we can also generate instructions on how to operate the controls of the vehicle. But the problem is this. How do we convey, this information and instructions to a person who cannot see fast enought and accurate enough so he can drive?  For this we developed many kind of user non-visual interface technology. So starting from a 3D ping sound system a vibration vest, a click wheel with voice commands, a leg strip, even a shoe that applies pressure to the foot. But today we are going to talk about three of these non-visual user interfaces.
Now the first interface is called DriveGrip. These are pair of gloves. and it has vibrating elements o nthe knuckle part, so it can convey instructiosn about how to steer, and direction and the intensity.
Another device is Speedgrip. So this is a chair as a matter of act it's actualy a message chair. We got it out and we rearrange the vibrating elements in different patterns. and we actuate them to convey information about the speed and also instruction how to use the gas and the brake pedal. So over here you can see how the computer understands the environment. And because you cnanot see the vibration, we actually put red LED's on the driver, so he can actually see what's happening. This is sensory data, and that data is transffered to the devices through the computer. So these two devices DriveGrip and SpeedStrip are very effective. But the problem is, these are instructional cue devices. So this is not really freedom right? The computer tells you how to drive. We call this the backseat driver problem.
So we are moving away from the instructional cue devices, and now we are more focusing on the informational devices. A good example for this informational non-visual user interface is called AirPix. So think of it as a monitor for the blind. So it's a small tablet has many holes in it. and compressor's air comes out so it can actually draw images. So even though you are blind you can put your hand over it, you can see the lanes of the road and obstacles. Actually you can also change the frequency of the air coming out and possibly the temperature. So it is actually multi-dimentional user interface. So here you can see the left camera the right camera from the vehicle and how the camera interprets that and sends that information to the AirPix. For this, we are showing a simulator, a blind person driving using the AirPix. This simulator was also very usevul for training the blind drivers and also quickly testing different types of ideas for different types of non visual user interfaces. So basically that's how it works. So just a month ago on Jan 29th. we veiled this vehicle for the very first time to the public at the world famous Daytona international Speedway during the Rolex 24 racing event. We also had some surprises. Let's take a look. (video)

So since we started  this project, we've been getting hundreds of letters emails phone calls people from all around the world. Letters thanking us but sometimes you also get funny letter like this one. Now I understand why there is Braille on a drive up ATM machine. But sometimes i also do get letters of strong concern."Dr. Hong are you insane trying to put blind people on the road? You must be out of you mind. " But this vehicle is prototype vehicle, and it is not going to be on the road until it's proven as safe as today's vehicle. And I trully believe that this can happen. But still will the society would they accept such a radical idea ? "How are we going to handle insurance?" There is many of these different kinds of hurdles besides technology chanllenges. that we need to address before this becomes a reality. Of course the main goal of this project is to develop a car for the blind.
But potentially more important than this is the tremendous value of the spin off technology that can come from this project. The sensors that are used can see through the dark, the fog and rain. And together with this new type of interfaces, we can use these technologies and apply them to safer cars for sighted people. Or for the blind everyday home appliances in the educational setting in the office setting. Just imagine in a classroom a teacher writes on the blackboard and a blind student can see what's written and read using these non visual interfaces. This is priceless. So today the thing i've shoed you today, is just the beginnig.
[댓글] 소감을 적어주실래요?