'건설 에너지 동향 Construction and Energy News /IT 과학 IT & Science'에 해당되는 글 937건

  1. 2019.07.03 오징어와 가리비에서 영감얻은 생태 모방 로봇 VIDEO: Robot Squid and Robot Scallop Showcase Bio-inspired Underwater Propulsion
  2. 2019.07.02 윔블든 테니스 대회 위해 딸기 수확하는 로봇 '루비온' VIDEO: The strawberry-picking robots that can pick and package all the perfect, red, unblemished fruit needed for Wimbledon in just one week
  3. 2019.07.02 잉크 안 쓰는 컬러프린터를 만들다
  4. 2019.06.29 초소형 비행 로봇 ‘로보비 엑스-윙’ VIDEO: The RoboBee flies solo—Cutting the power cord for the first untethered flight
  5. 2019.06.29 받아쓰기의 인공지능화 - 구글 트랜스크라이브 VIDEO: The best way to transcribe an interview without having to do shit or pay
  6. 2019.06.27 뭐? 인간 두뇌와 인터넷을 연결한다고?...VIDEO: Connecting the human brain with cloud networks could happen within the 'next few decades', researchers speculate
  7. 2019.06.26 영 대학생이 세계 최고 속도 제트팩 개발 VIDEO: World's fastest jet pack which reaches 50mph and costs £340,000 is built by a British student using a 3D printer
  8. 2019.06.23 생물처럼… 몸속에 ‘피’가 흐르는 로봇 물고기 VIDEO: Engineers built a robot fish that powers itself with 'fake blood'
  9. 2019.06.22 한국하곤 달라!...기업의 도전 전폭 지원하는 이스라엘..."실패해도 걱정마" VIDEO: Beresheet landing on the Moon
  10. 2019.06.21 닛산 엔지니어, 쌀농사 도와주는 '오리 로봇' 개발 VIDEO: This “Duck” Robot Helps Rice Farmers in Japan/ 도쿄대, 바다거북 자동 추적 수중 자율로봇 개발 東大がウミガメを自動追跡するロボット開発

Robot Squid and Robot Scallop Showcase Bio-inspired Underwater Propulsion

Animals have lots of creative ways of moving through the water, and robots are stealing them

By Evan Ackerman

Illustration showing the flying robot squid using a water jet to propel itself out of the water, glide in mid-air, and dive back into the water.

Illustration showing the flying robot squid using a water jet to propel itself out of the water, glide in mid-air, and dive back into the water. Image: Beihang University


오징어와 가리비에서 영감얻은 생태 모방 로봇

'ICRA 2019'에서 로봇 오징어와 로봇 가리비 발표

     오징어와 가리비에서 영감을 얻은 로봇 오징어(Robot Squid)와 로봇 가리비(Robot Scallop)가 개발됐다.

‘IEEE 스펙트럼‘은 지난달 캐나다에서 열린 ’ICRA 2019‘에서 발표된 논문 가운데 오징어와 가리비에서 아이디어를 얻어 개발된 로봇 오징어와 로봇 가리비를 소개했다. 일반적으로 수중에서 동작하는 로봇들은 프로펠러나 지느러미와 같은 장치를 이용해 물속에서 움직인다. 하지만 오징어나 가리비는 제트 엔진처럼 압축된 공기를 분사하는 방식으로 물속에서 뛰쳐나와 공중으로 비상하거나 물속에서 앞으로 전진한다.

하단 첫번째 사진 설명:

로봇 오징어.오른쪽은 지느러미와 팔 부분을 접은 모습

로봇 오징어는 중국 ‘북경항공항천대학(Beihang University,北京航空航天大学)‘ 연구팀이 개발했다. 이 로봇은 오징어처럼 워터젯(waterjet) 방식으로 추진력을 얻어 점프하면서 물밖으로 빠져나온다. 물밖으로 나오면 지느러미와 팔을 펴는 동작으로 비상하는 거리를 늘릴 수 있다.

로봇 오징어의 워터젯은 로봇 앞부분에 있는 실린더에 압축공기를 저장하는 방식으로 힘을 비축하고 있다. 지느러미와 팔은 공기압 액추에이터에 의해 제어된다. 로봇 오징어가 물속에서 실린더의 밸브를 열면 압축 공기가 한꺼번에 분출된다. 물속에서 나와 10~20m의 거리를 날아갈 수 있다. 물속에서 한번 분출하면 10m 정도 이동할 수 있다. 연구팀은 앞으로 밀도가 높은 액체 Co2를 사용해 여러 번의 점프가 가능하도록 한다는 계획이다.

하단 두번째 사진 설명:

로봇 가리비의 작동 방식

로봇 가리비는 스위스 EPFL의 ‘제이미 백(Jamie Paik)’ 교수팀이 개발했다. 가리비는 껍데기를 열었다 닫는 방식으로 앞으로 전진하는 힘을 얻는다. 실제 가리비의 움직에서 아이디어를 얻은 로봇 가리비는 무게 65g이며 초당 16cm의 속도로 이동할 수 있다. 실제 가리비는 물을 분사하는 양과 방향을 조절하는 방식으로 방향을 바꿀 수 있지만 아직 로봇 가리비는 그 정도까지는 아니다. 앞으로 방향을 전환하는 기술을 구현한다는 계획이다.

장길수  ksjang@irobotnews.com 로봇신문사

edited by kcontents

Most underwater robots use one of two ways of getting around. Way one is with propellers, and way two is with fins. But animals have shown us that there are many more kinds of underwater locomotion, potentially offering unique benefits to robots. We’ll take a look at two papers from ICRA this year that showed bioinspired underwater robots moving in creative new ways: A jet-powered squid robot that can leap out of the water, plus a robotic scallop that moves just like the real thing.

Robot squid Image: Beihang University

Prototype of the squid robot in (a) open and (b) folded states. The soft fins and arms are controlled by pneumatic actuators.

This “squid-like aquatic-aerial vehicle” from Beihang University in China is modeled after flying squids. Real squids, in addition to being tasty, propel themselves using water jets, and these jets are powerful enough that some squids can not only jump out of the water, but actually achieve controlled flight for a brief period by continuing to jet while in the air. The flight phase is extended through the use of fins as arms and wings to generate a little bit of lift. Real squids use this multimodal propulsion to escape predators, and it’s also much faster—a squid can double its normal swimming speed while in the air, flying at up to 50 body lengths per second.


The squid robot is powered primarily by compressed air, which it stores in a cylinder in its nose (do squids have noses?). The fins and arms are controlled by pneumatic actuators. When the robot wants to move through the water, it opens a value to release a modest amount of compressed air; releasing the air all at once generates enough thrust to fire the robot squid completely out of the water.

The jumping that you see at the end of the video is preliminary work; we’re told that the robot squid can travel between 10 and 20 meters by jumping, whereas using its jet underwater will take it just 10 meters. At the moment, the squid can only fire its jet once, but the researchers plan to replace the compressed air with something a bit denser, like liquid CO2, which will allow for extended operation and multiple jumps. There’s also plenty of work to do with using the fins for dynamic control, which the researchers say will “reveal the superiority of the natural flying squid movement.”

“Design and Experiments of a Squid-like Aquatic-aerial Vehicle With Soft Morphing Fins and Arms,” by Taogang Hou, Xingbang Yang, Haohong Su, Buhui Jiang, Lingkun Chen, Tianmiao Wang, and Jianhong Liang from Beihang University in China, was presented at ICRA 2019 in Montreal.

The EPFL researchers studied the morphology and function of a real scallop (a) to design their robot scallop (b), which consists of two shells connected at a hinge and enclosed by a flexible elastic membrane. The robot and animal both swim by rapidly, cyclicly opening and closing their shells to generate water jets for propulsion. When the robot shells open, water is drawn into the body through rear openings near the hinge. When the shells close rapidly, the water is forced out, propelling the robot forward (c).

RoboScallop, a “bivalve inspired swimming robot,” comes from EPFL’s Reconfigurable Robotics Laboratory, headed by Jamie Paik. Real scallops, in addition to being tasty, propel themselves by opening and closing their shells to generate jets of water out of their backsides. By repetitively opening their shells slowly and then closing quickly, scallops can generate forward thrust in a way that’s completely internal to their bodies. Relative to things like fins or spinning propellers, a scallop is simple and robust, especially as you scale down or start looking at large swarms of robots. The EPFL researchers describe their robotic scallop as representing “a unique combination of robust to hazards or sustained use, safe in delicate environments, and simple by design.”

And here’s how the real thing looks:

As you can see from the video, RoboScallop is safe to handle even while it’s operating, although a gentle nibbling is possible if you get too handsy with it. Since the robot sucks water in and then jets it out immediately, the design is resistant to fouling, which can be a significant problem in marine environments. The RoboScallop prototype weighs 65 grams, and tops out at a brisk 16 centimeters per second, while clapping (that’s the actual technical) at just over 2.5 Hz. While RoboScallop doesn’t yet steer, real scallops can change direction by jetting out more water on one side than the other, and RoboScallop should be able to do this as well. The researchers also suggest that RoboScallop itself could even double as a gripper, which as far as I know, is not something that real scallops can do.

“RoboScallop: A Bivalve-Inspired Swimming Robot,” by Matthew A. Robertson, Filip Efremov, and Jamie Paik, was presented at ICRA 2019 in Montreal.



Posted by engi, conpaper engi-

The strawberry-picking robots that can pick and package all the perfect, red, unblemished fruit needed for Wimbledon in just one week

The 'Rubion' machine is programmed to only pick 'perfect' strawberries

It takes 14 machines to gather enough to keep the event topped up for 7 days

Rubion even has a built in 'camera' uses sensors to ensure only the ripest fruit

Wimbledon kicks off on Monday, with fans being expected to consume a whopping 34,000kg of strawberries over the two-week tournament


윔블든 테니스 대회를 위해 딸기 수확하는 로봇 '루비온' 

ACTPHAST's founder and CEO Dr Tom Coen 

    기 따는 로봇들은 윔블던에서 일주일 동안 테니스 애호가들에게 공급할 충분한 양을  수확할 수 있었다.

'루비온'은 오직 '완벽한' 딸기만 골라내도록 프로그램 되어 있는데, 14대의 로봇이 윔블든 토너먼트에 공급을 소화할 수 있도록 바쁘게 움직인다.

흠 없는 딸기 따는 메커니즘은 5초마다 딸기를 골라 포장해 하루 최대 360kg를 만들어낸다

루비온은 심지어 가장 익은 과일만이 통과할 수 있도록 센서를 사용한다.

황기철 콘페이퍼 에디터 큐레이터

Ki Chul Hwang, conpaper editor, curator

edited by kcontents


PUBLISHED: 00:01 BST, 29 June 2019 | UPDATED: 00:01 BST, 29 June 2019


Strawberry-picking robots could collect enough fruit to supply tennis-lovers at Wimbledon for one week.

The 'Rubion' is programmed to only pick 'perfect' strawberries, with just 14 machines being able to gather enough to keep the tournament topped up for seven days.

Its clasping mechanism, which leaves the fruit bruise-free, picks and packages a strawberry every five seconds, resulting in up to 360kg of the berry a day.

Rubion even has a built in 'camera' uses sensors to ensure only the ripest fruit makes it through.

Scroll down for video 

Strawberry-picking robots could collect enough fruit to supply tennis-lovers at Wimbledon for one week. The 'Rubion' is programmed to only pick 'perfect' strawberries, with just 14 machines being able to gather enough to keep the tournament topped up for seven days

The brains behind the technology argue the machine surpasses even the most enthusiastic fruit picker, who 'require breaks and complain about the weather'.

Wimbledon kicks off on Monday, with fans being expected to consume a whopping 34,000kg of strawberries over the two-week tournament.

Even the most enthusiastic fruit picker can only manage around 50kg a day, with them also requiring breaks and constantly fighting the temptation not to munch through their bounty.

The Belgium-based manufacturer ACTPHAST 4.0, which specialises in providing robotic solutions to agriculture and food, has therefore launched Rubion.

The machine is designed to pick strawberries off raised 'vegetable patches'. It then sorts the fruit by size or weight, before packing it into punnets.


The brains behind the technology argue the machine surpasses even the most enthusiastic fruit picker, who 'require breaks and complain about the weather'. Wimbledon kicks off on Monday, with fans being expected to consume a whopping 34,000kg of strawberries over the two-week tournament


ACTPHAST's founder and CEO Dr Tom Coen said the picking of soft fruits with machines has always been tricky given that they are so easy to get squashed and the sensitivity needed to discern whether a fruit was ripe or rotten, simply wasn't there

Rubion is even programmed with light-detecting sensors to pick up on the wavelengths given off by the fruit, with only the best being good enough.

View Full Text



Posted by engi, conpaper engi-

잉크 안 쓰는 컬러프린터를 만들다

    투명하고 유리질인 고분자를 굽히거나 잡아당기면 금이 가거나 깨지기 직전에 종종 부분적으로 하얗게 된다. 이런 예측할 수 없는 현상을 크레이징(crazing)이라고 부르는데, 일반적으로 바람직하지 않은 현상으로 본다. - 고승환, ‘네이처’ 6월 20일자에 실린 해설에서

주간 과학저널인 ‘네이처’와 ‘사이언스’에는 논문이 15편 정도 실리는데 이 가운데 네다섯 편은 해설이 함께 한다. 논문은 워낙 전문적이라 에세이에서 다루지 않으면 볼 일이 거의 없다. 반면 논문을 설명하며 의미를 부여하는 해설은 관심 가는 걸로 두세 편 읽는다.

‘네이처’ 6월 20일자에 실린 해설 다섯 편 가운데 ‘크레이지 컬러(Crazy colour)’라는, 무슨 뜻인지 도무지 짐작할 수 없는 제목이 눈에 들어왔다. 게다가 해설을 쓴 사람이 서울대 기계항공공학부 고승환 교수다.

고승환 서울대학교 공과대학 기계항공공학부 교수 (서울대 공대 제공) © News1

edited by kcontents

유명 저널인 ‘네이처’나 ‘사이언스’ 에 한국 과학자의 논문이 실리는 것도 흔치 않지만, 해설이 실리는 건 드문 일이다. 전자가 한 달에 한 편이라면 후자는 일 년에 한 편 정도일까.

논문이야 과학자가 학술지에 투고하는 것이지만 해설은 학술지가 논문의 분야를 꿰고 있는 과학자에게 청탁하는 것이므로 영국(‘네이처’)과 미국(‘사이언스’) 학술지가 굳이 한국 과학자까지 떠올리지는 않을 텐데, 그만큼 고 교수가 적임자란 얘기일 것이다.


투명한 플라스틱 표면에 잉크 없이 색을 만들어 명화를 재현한 이미지다. 왼쪽은 ‘진주목걸이를 한 소녀’로 노란색 빛이 보강간섭한 결과다(투명 플라스틱 필름을 녹색 바닥 위에 놓았다). 가운데와 오른쪽은 용매를 달리했을 때 나온 ‘모나리자’로 가운데는 파란색 단색이지만 오른쪽은 노란색과 녹색, 파란색에 걸쳐 있다(투명 플라스틱 필름을 검은색 바닥 위에 놓았다). 다이클로로메탄을 처리하면 미세구조 크기가 일정하게 나오는 반면(가운데) 클로로포름을 쓸 경우 편차가 커서 이런 현상이 생겼다(오른쪽). 네이처 제공

결함 이용해 구조색 구현

아무튼 해설을 읽어보니 크레이지는 ‘미쳤다’는 평범한 뜻이 아니라 크레이징(crazing)이라는 전문용어를 형용사 형태로 쓴 말장난이다(영어권 사람들도 ‘미친 색’으로 해석해 무슨 말인지 의아해하지 않을까).

크레이징은 도자기 표면에 발라진 유약에 미세한 균열이 생겨 그물처럼 보이는 현상이다. 그런데 투명한 플라스틱도 굽히거나 당길 때 미세한 금이 가면서 불투명한 흰색이 되는 경우가 있다. 투명한 플라스틱이 변형될 때 나타나는 백탁을 크레이징이라고 부른다.


도자기 표면에 바른 유약에 금이 가 그물망처럼 보이는 현상을 크레이징이라고 부른다(왼쪽). 투명한 플라스틱을 굽히거나 잡아당기면 깨지기 직전 하얗게 변하는 현상도 크레이징이라고 부른다(오른쪽). 이 부분을 현미경으로 보면 플라스틱에 미세한 금이 가 있다. 위키피디아/강석기 제공

플라스틱은 고분자 가닥이 서로 엉켜 있는 상태다. 서로 화학결합으로 묶여 있지 않아도 단단한 고체를 유지하는 건 긴 고분자 사이에 반데르발스힘(Van der Waals force)이라는 전기적인 인력이 고분자 전체에 걸쳐 작용하고 있기 때문이다. 그런데 외부에서 힘이 가해지면 고분자 사이에 반데르발스힘이 더 이상 ‘힘을 쓰지 못해’ 공간이 생기면서 투과하던 빛이 난반사를 일으킨다. 그 결과 플라스틱은 투명성을 잃고 하얗게 보인다.

일본 교토대 과학자들은 투명한 플라스틱의 크레이징을 조절해 하얗게 보이는 대신 색을 띠게 하는 방법을 개발했다는 논문을 발표했다. 크레이징으로 생긴 플라스틱 내부의 공간이 균일해 반사될 때 특정 파장의 빛만 보강간섭을 일으켜 해당 색으로 보이는 것이다. 이렇게 색소 없이 미세 구조에 따른 광학 현상으로 나타나는 색을 구조색(structural colour)이라고 부른다.

몰포나비 날개 비늘 표면의 나노구조

비 온 뒤 생긴 웅덩이에 기름이 흘러 들어가면 유동적인 무지개색이 보인다(왼쪽). 이는 빛의 간섭 현상으로 입사광(incident light)이 공기(n1)와 기름막(n2) 경계에서 반사되는 경로->D)와 굴절돼 기름막을 통과한 뒤 기름막과 물의 경계에서 반사되는 경로(A->B->C)의 차이가 파장의 정수배일 때 보강간섭이 일어난다(오른쪽). 기름막의 두께(d)가 유동적이기 때문에 보강간섭을 일으키는 파장(색)이 순간순간 바뀐다. 위키피디아 제공

비 온 뒤 고인 물웅덩이에 기름이 흘러들면 여러 색으로 보이는데, 얇은 막 간섭 현상이라고 부른다. 물과 기름 모두 무색투명이지만 물 위에 얇게 퍼진 기름막에 빛이 부딪쳐 반사할 때 기름막 두께에 따라 보강간섭을 하는 파장이 달라지므로 여러 색이 나타난다. 색이 일정하지 않은 건 기름막의 두께가 순간순간 변하기 때문에 보강간섭을 하는 파장이 바뀌기 때문이다.

이처럼 두께가 변하는 기름막과는 달리 빛의 간섭 현상이 일어나는 구조가 견고해 색이 바뀌지 않을 때 구조색이라고 부른다. 자연계에서는 곤충의 외골격과 새의 깃털에서 구조색을 흔히 볼 수 있다. 가장 유명한 예는 몰포(morpho)나비 날개 비늘의 구조색이다.

중남미 열대림에 사는 몰포나비는 비현실적으로 아름다운 파란색 날개를 지니고 있어서 많은 사람들이 색소를 추출하려고 시도했지만 실패했다. 나중에 알고 보니 색소가 아니라 날개 비늘 표면의 독특한 구조로 빛의 간섭현상이 일어나 특정 파장의 빛(파란색)만 살아남은 결과라는 게 밝혀졌다.

선명한 파란색 날개가 인상적인 몰포나비의 날개 비늘에는 파란색소가 전혀 없다. 대신 비늘 표면이 공기층과 비늘층이 교대로 배열된 독특한 구조를 지녀 파란빛의 보강간섭을 일으킨 결과다. 이렇게 만들어지는 색을 구조색이라고 부른다. 위키피디아 제공

일본 연구자들은 플라스틱을 굽히거나 잡아당기는 물리적 힘 대신 용매에 담가 크레이징을 일으키는 방법을 개발했다. 플라스틱을 아예 녹여버리는 강력한 용매 대신 아세트산처럼 작용이 온화한 용매를 썼다. 용매가 플라스틱에 스며들면서 고분자 사이에 약간의 틈이 벌어지면서 플라스틱이 부푼다. 그 결과 일정한 크기의 미세구멍과 미세골격으로 이뤄진 공간이 생겨 투과하는 빛을 교란시킨다.'

몰포나비의 날개 비늘 표면 구조에서도 알 수 있듯이 빛의 보강간섭으로 인한 구조색의 효과를 크게 하려면 일정한 간격의 구조가 반복돼야 한다. 연구자들은 정상파 광학(standing-wave optics) 기술을 써서 빛에 민감한 플라스틱에 일정 간격으로 고분자 사이에 교차반응이 일어나게 했다. 교차반응이 일어난 층은 용매가 침투하지 못하고 일어나지 않은 층은 구조가 취약해져 침투해 변형된다. 그 결과 비늘 표면 구조처럼 다층 구조가 형성됐다.


최근 일본 교토대 연구자들은 플라스틱의 크레이징 현상을 이용해 구조색을 만드는 방법을 개발했다. ① 정상파 빛을 쪼여 플라스틱에 주기적인 교차반응을 일으킨다. 이 경우 교차반응이 일어나지 않은 층은 용매에 취약해진다. ② 플라스틱을 용매에 담그면 교차반응이 일어나지 않은 층에 용매가 침투해 크레이징이 일어나 미세구조가 만들어진다. ③ 여기에 빛을 쪼여주면 특정 파장의 빛은 보강간섭을 일으켜 반사되고(빨간색) 나머지는 투과한다(파란색). 즉 위에서 보면 플라스틱 표면이 빨갛게 보인다. 네이처 제공

잉크젯 프린팅보다 해상도 훨씬 높아

한편 미세구멍과 미세골격의 크기는 플라스틱 재료인 고분자의 종류나 평균 분자량, 정상파 광학에 쓰는 빛의 파장, 용매의 종류, 용매에 담글 때 온도 등 여러 변수를 바꿔 조절할 수 있다. 원하는 파장의 빛에 대해 보강간섭이 일어나게 맞출 수 있으므로 이론적으로 어떤 구조색이라도 만들 수 있다는 말이다.

논문을 보면 이 방법으로 플라스틱 표면에 만든 이미지가 여럿 나와 있다. ‘모나리자’ 이미지의 경우 두 가지 버전이 있는데, 사용한 용매가 다르다. 그 결과 미세 구조의 크기가 달라 보강간섭을 일으키는 빛의 파장도 달라 다른 색을 띠는 것이다.

보강간섭되는 빛의 파장을 결정하는 미세구조의 크기는 정상파 빛의 파장이나 플라스틱의 종류, 용매의 종류 등을 달리해 조절할 수 있다. 즉 이론상으로는 모든 색을 낼 수 있다는 말이다. 플라스틱 종류에 따른 단면의 현미경 사진으로 위에서부터 폴리카보네이트, PMMA, 폴리술포넨이다. 네이처 제공

플라스틱에 교차반응이 번갈아 일어나게 하는 정상파 광학 기술은 최소 1.8㎛(마이크로미터. 1㎛는 100만분의 1m) 크기로도 가능해 1만4000dpi(인치 당 화소수)의 해상도가 구현할 수 있다. 반면 일반 잉크젯 프린팅의 해상도는 아무리 좋아도 1200dpi 수준이다. 잉크 방울의 크기를 더 이상 줄일 수 없기 때문이다 

고 교수는 해설에서 “예전에는 쓸모없다고 치부되던 현상을 이용해 간단하고 저렴하게 색을 내는 방법을 개발했다”며 “크레이징을 조절하는 방법은 투명 플라스틱 표면에 잉크 없이도 색을 입히는 것 외에도 전자소자나 센서 등에 적용할 수 있을 것”이라고 내다봤다.


서울대 고승환교수 연구팀, 고효율 미세먼지 필터 개발


edited by kcontents


※ 필자소개

강석기 과학칼럼니스트 (kangsukki@gmail.com). LG생활건강연구소에서 연구원으로 근무했으며, 2000년부터 2012년까지 동아사이언스에서 기자로 일했다. 2012년 9월부터 프리랜서 작가로 활동하고 있다. 직접 쓴 책으로 《강석기의 과학카페》(1~8권),《생명과학의 기원을 찾아서》가 있다. 번역서로는 《반물질》, 《가슴이야기》, 《프루프: 술의 과학》을 썼다

강석기 과학 칼럼니스트 kangsukki@gmail.com 동아사이언스


Posted by engi, conpaper engi-

The RoboBee flies solo—Cutting the power cord for the first untethered flight

by Harvard John A. Paulson School of Engineering and Applied Sciences

The RoboBee X-wing has four wings driven by two piezoelectric actuators. The vehicle has a total wingspan of 3.4 cm, weighs 90 mg, and has a maximum lift of 370mg.  Credit: Noah T. Jafferis and E. Farrell Helbling, Harvard Microrobotics Laboratory

The RoboBee X-WingIt was developed by a team from Harvard University in Boston. It has a wingspan of 3.5 centimetres and weighs only 259 milligrams, light enough to land on leaves. The solar-powered RoboBee X-WingIt and has four wings which flap at a rate of 170 times per second, instead of a propeller to take off./dailymail.uk.com


초소형 비행 로봇 ‘로보비 엑스-윙’

태양전지, 4개의 날개로 장거리 비행 성공

    15세기 레오나르도 다빈치는 동물이 사람에게 영감을 준다고 말했다.

실제로 많은 과학자들이 동물의 모습을 모방해 기계나 기구를 제작해왔다. 그리고 지금 꿀벌의 날개를 모방해 비행이 가능한 초소형 날개를 제작하는데 성공하고 있다.

26일 ‘하버드 공대(Harvard John A. Paulson School of Engineering and Applied Sciences)’ 연구팀은 종이 클립의 절반에 불과하면서 장기간 비행이 가능한 초소형 비행체를 완성했다는 내용의 논문을 ‘네이처’ 지에 발표했다.

스타워즈 ‘엑스-윙 스타파이터’ 참조 

논문에 따르면 이 로봇은 2013년 하버드대 로버트 우드(Robert Wood) 교수팀이 개발한 무게 로봇을 업그레이드 한 것이다.

우드 교수팀이 선보인 파리 모습의 로봇은 무게 80mg으로 초당 120회의 날갯짓을 할 수 있었다. 그러나 이 로봇에 탑재할 초소형 배터리가 없어 몸체에 전선을 연결해 전기를 공급했다. 그 결과 비행 거리가 약 10cm에 불과했다.

그러나 이번에 선보인 로봇의 무게는 259mg, 각 날개의 길이는 3.5cm에 달한다. 이전보다 몸체가 커졌지만 태양전지를 부착하고 있으며,  2개의 기본 날개 외에 2개의 보조 날개가 달려 있어 기류 상의 방해가 없는 한 무한정 장거리 비행이 가능하다.

기능을 첨가하면서 명칭도 과거 ‘로보비(RoboBee)’에서 ‘로보비 엑스-윙(RoboBee X-Wing)’으로 개명했다.

연구를 이끈 노아 자페리스(Noah T. Jafferis) 박사는 “이전의 로보비의 단점을 보강하기 위해 장착한 초소형 태양전지의 무게는 10mg에 불과하며, 밝은 태양 아래서 120mw(milliwatt)의 전력 생산이 가능하다.”고 말했다.

연구팀은 현재 태양전지가 지속적으로 가동하기 위해 매우 밝은 할로겐 라이트로 태양빛을 대체하고 있는 중이다.

보조 날개에 대한 아이디어는 영화 ‘스타 워즈(Star Wars)’에 나오는 ‘엑스-윙 스타파이터(X-Wing starfighter)’를 모방했다. 기존 로보비에 엑스-윙(X-Wing)을 추가한 것은 ’엑스-윙 스타파이터‘를 모방한 것이다.

로보비를 선보인 우드 교수는 이번 연구 결과에 대해 “수십 년 동안의 노력으로 오랜 비행이 가능한 초소형 비행체를 완성할 수 있었다.”며, “향후 추가 연구를 통해 더 작으면서 더 강력하고 지속적인 비행 능력을 지닌 초소형 비행체를 개발해나가겠다.”고 말했다.

논문은 26일자 ‘네이처’ 지에 게재됐다. 논문 제목은 ‘Untethered flight of an insect-sized flapping-wing microscale aerial vehicle’이다.

“초소형 비행체 개발 분기점 넘었다” 

연구팀은 논문을 통해 공기보다 무거운 비행체는 많은 에너지를 공급해야 하기 때문에 제작이 어려운 데다 많은 비용이 들어간다고 말했다.


하버드 공대에서 개발한 ‘엑스-윙 스타파이터’. 259mg의 무게로 장거리 비행에 성공해 향후 초소형 로못비행체 개발의 초석을 놓은 것으로 평가받고 있다. ⓒseas.harvard.edu

더구나 5cm 이하 곤충 크기의 초소형 비행체인 경우 상업적으로 배터리 생산이 이루어지지 않는 데다 배터리를 제작하기 위해 정교한 기술이 요구돼 에너지 공급 문제를 해결하는 데 더 큰 곤란을 겪어왔다고 털어놓았다.

연구팀은 이 문제를 해결하기 위해 다양한 모델을 통해 실험을 진행해왔다고 밝혔다.

강화 알루미늄을 소재로 만든 압전기(alumina-reinforced piezoelectric actuators) 2대와 4개의 날개를 장착한 259mg의 비행체를 제작했다는 것. 이 로봇은 2개의 날개를 지닌 비행체와 비교해 30% 에너지를 절약할 수 있었다.

연구팀은 수차례의 실험을 통해 110~120mw의 전력으로 꿀벌 크기의 로봇이 비행할 수 있게 됐다고 말했다.

한편 초소형 로봇 개발은 1970년대 미국 정보기관에서 시작됐다.

당시에는 전쟁 포로 구출을 돕거나 전자 교란 업무를 맡기려고 했으나, 기술 부족으로 실제 제작할 수는 없었다. 이후 1980년대 후반 미세전자기계시스템(MEMS)을 이용해 마이크로 로봇을 만들 수 있게 되면서 관련 기술에 대한 관심이 다시 높아졌다.

1993년 엡손에서 만들어 판매한 초소형 자율 주행 로봇 ‘므슈’는 1㎤밖에 안 되는 몸에 98개의 부품을 담고 있었다.

비행 로봇 역시 꾸준하게 이루어졌다. 특히 미국, 중국 간의 개발 경쟁이 치열하게 전개돼왔는데 이번에 하버드대에서 장거리 실험에 성공하면서 개발 경쟁에 새 국면을 맞게 됐다.

이강봉 객원기자baacc409@naver.com sciencetimes

edited by kcontents

The RoboBee—the insect-inspired microrobot developed by researchers at Harvard University—has become the lightest vehicle ever to achieve sustained flight without the assistance of a power cord. After decades of work, the researchers achieved untethered flight by making several important changes to the RoboBee, including the addition of a second pair of wings. That change, along with less visible changes to the actuators and transmission ratio, gave the RoboBee enough lift for the researchers to attach solar cells and an electronics panel.

In the Harvard Microrobotics Lab, on a late afternoon in August, decades of research culminated in a moment of stress as the tiny, groundbreaking Robobee made its first solo flight.

Graduate student Elizabeth Farrell Helbling, Ph.D. '19, and postdoctoral fellow Noah T. Jafferis from the Harvard John A. Paulson School of Engineering and Applied Sciences (SEAS), the Graduate School of Arts and Sciences and The Wyss Institute for Biologically Inspired Engineering caught the moment on camera.

Helbling, who has worked on the project for six years, counted down.

"Three, two, one, go."

The bright halogens switched on and the solar-powered Robobee launched into the air. For a terrifying second, the tiny robot, still without on-board steering and control, careened towards the lights.

Off camera, Helbling exclaimed and cut the power. The Robobee fell dead out of the air, caught by its Kevlar safety harness.

"That went really close to me," Helbling said, with a nervous laugh.

"It went up," Jafferis, who has also worked on the project for about six years, responded excitedly from the high-speed camera monitor where he was recording the test.

And with that, Harvard University's Robobee reached its latest major milestone—becoming the lightest vehicle ever to achieve sustained untethered flight.


Changes to the Robobee -- including an additional pair of wings and improvements to the actuators and transmission ratio -- made the vehicle more efficient and allowed the addition of solar cells and an electronics panel. This Robobee is the first to fly without a power cord and is the lightest, untethered vehicle to achieve sustained flight. Credit: Harvard Microrobotics Lab/Harvard SEAS

"This is a result several decades in the making," said Robert Wood, Charles River Professor of Engineering and Applied Sciences at SEAS, Core Faculty member of the Wyss Institute and principle investigator of the Robobee project. "Powering flight is something of a Catch-22 as the tradeoff between mass and power becomes extremely problematic at small scales where flight is inherently inefficient. It doesn't help that even the smallest commercially available batteries weigh much more than the robot. We have developed strategies to address this challenge by increasing vehicle efficiency, creating extremely lightweight power circuits, and integrating high efficiency solar cells."

The milestone is described in Nature.

To achieve untethered flight, this latest iteration of the Robobee underwent several important changes, including the addition of a second pair of wings.

"The change from two to four wings, along with less visible changes to the actuator and transmission ratio, made the vehicle more efficient, gave it more lift, and allowed us to put everything we need on-board without using more power," said Jafferis.

(The addition of the wings also earned this Robobee the nickname X-Wing, after the four-winged starfighters from Star Wars.)

Changes to the Robobee -- including an additional pair of wings and improvements to the actuators and transmission ratio -- made the vehicle more efficient and allowed the addition of solar cells and an electronics panel. This Robobee is the first to fly without a power cord and is the lightest, untethered vehicle to achieve sustained flight. Credit: Harvard Microrobotics Lab/Harvard SEAS

That extra lift, with no additional power requirements, allowed the researchers to cut the power cord—which has kept the Robobee tethered for nearly a decade—and attach solar cells and an electronics panel to the vehicle.

The solar cells, the smallest commercially available, weigh 10 milligrams each and get 0.76 milliwatts per milligram of power when the sun is at full intensity. The Robobee X-Wing needs the power of about three Earth suns to fly, making outdoor flight out of reach for now. Instead, the researchers simulate that level of sunlight in the lab with halogen lights.

The solar cells are connected to an electronics panel under the bee, which converts the low voltage signals of the solar array into high voltage drive signals needed to control the actuators. The solar cells sit about three centimeters above the wings, to avoid interference.


via youtube

edited by kcontents

To achieve untethered flight, the latest iteration of the Robobee underwent several important changes, including the addition of a second pair of wings. Credit: Harvard SEAS

In all, the final vehicle, with the solar cells and electronics, weights 259 milligrams (about a quarter of a paper clip) and uses about 120 milliwatts of power, which is less power than it would take to light a single bulb on a string of LED Christmas lights.


"When you see engineering in movies, if something doesn't work, people hack at it once or twice and suddenly it works. Real science isn't like that," said Helbling. "We hacked at this problem in every which way to finally achieve what we did. In the end, it's pretty thrilling."

The researchers will continue to hack away, aiming to bring down the power and add on-board control to enable the Robobee to fly outside.

"Over the life of this project we have sequentially developed solutions to challenging problems, like how to build complex devices at millimeter scales, how to create high-performance millimeter-scale artificial muscles, bioinspired designs, and novel sensors, and flight control strategies," said Wood. "Now that power solutions are emerging, the next step is onboard control. Beyond these robots, we are excited that these underlying technologies are finding applications in other areas such as minimally-invasive surgical devices, wearable sensors, assistive robots, and haptic communication devices—to name just a few."



Posted by engi, conpaper engi-

The best way to transcribe an interview without having to do shit or pay


The best way to transcribe an interview without having to do shit or pay

First up, what do we want from a transcribing experience? Accuracy is important, it has to be easy to use, and it doesn’t hurt if it’s free.

실시간 받아쓰기 앱, 구글 트랜스크라이브 <출처=구글 유튜브 캡처)/IT DONGAH


받아쓰기의 인공지능화 - 구글 트랜스크라이브

    후천적 청각장애(혹은 난청)로 인해 (말은 할 수 있지만) 제대로 듣지 못하는 이들은, 주로 종이에 직접 글로 써가며 단문 대화 위주로 소통한다. 번거롭고 불편하지만 이들이 일상에서 (글로 쓰는 것만큼) 간단히 소통할 수 있는 방법이 딱히 없기 때문이다.

구글이 최근 출시한 '라이브 트랜스크라이브'는 이처럼 청각장애나 난청으로 불편을 겪는 이들을 위한 유용하고 진정 기특한 앱이다. 기술이 존재하는(혹은 존재해야 하는) 결정적인 이유를 이 앱이 보여준다.

라이브 트랜스크라이브는 구글의 인공지능 음성인식 기술을 적용해, 사람의 대화 목소리를 자동 인식하여 이를 글자로 보여준다. 마치 뉴스에서 보던 외국어 실시간 통역 자막처럼, 대화자의 육성을 실시간으로 글자로 받아 적는다.

구글 플레이스토어에는 '실시간 자막'의 이름으로 등록돼 있고, 무료로 사용할 수 있다. 트랜스크라이브는 설치 후 별도의 설정은 필요 없고, 실행하면 곧바로 음성 인식 대기 모드가 된다.

<플레이스토어에서 무료로 내려받아 사용할 수 있다>

설정 항목이 있긴 한데, 여기서는 글자 크기, 배경 색상, 기본 언어(보조 언어 포함), 출력된 글자(스크립트) 저장 기간 등의 부가 설정을 할 수 있다.

참고로, 트랜스크라이브는 19년 6월 현재 전세계 인구 80% 이상이 사용하는 70개국 언어를 지원한다. 출력된 글자는 기본으로 3일간 스마트폰에 저장된다(저장 허용 시).

음성 인식 대기 상태에서 말을 하면 단어/문장을 인식해 그대로 글자로 출력해 보여준다. 시끄럽지 않은 환경에서 분명한 발음으로 말하면, 예상/기대보다 훨씬 정확하게 글자로 받아 적는다. 물론 사람의 육성, 발음, 억양 내지는 모호한 특정 단어 등에 따라 종종 오탈자나 다른 단어를 출력하긴 하지만, 쉼 없는 장문이 아닌 중단문 위주의 일상 대화문이라면 상당히 정확한 결과를 보여준다. 종이에 글로 성급히 써서 소통하는 것보다는 한결 간편하고 분명한 의사전달이 가능하리라 본다. 

대화형 문장은 거의 정확히 인식, 받아쓴다

<유튜브 내 설민석 한국사 강사의 강의 영상 음성을 듣고 받아 쓴 결과>

이 정도의 음성 인식 정확도라면 대화/인터뷰 등을 글자로 적어야 하는(타이핑해야 하는) 일선 기자들에게도 적지 않은 도움이 된다. 스마트폰용 마이크를 연결하면 음성 인식 정확도를 더욱 높일 수 있다.

이 밖에 트랜스크라이브는 사람 육성 외 사물 소리도 부분적으로 인식해 이를 표시한다. 예를 들어, 실제 박수 소리가 입력되면 '박수소리'로, 고양이 '야옹' 소리는 '고양이 소리', 개가 짖으면 '개 소리'로, 자동차 경적소리라면 '자동차 경적' 등으로 표시된다. 신기할 정도로 잘 듣고 분석, 구분한다. 

<사람의 육성 외에 사물 소리도 분석, 파악해 표시한다>

아무래도 아직까지는 한국어보다 영어 인식 정확도가 상대적으로 높은데, 언어를 'English'로 설정하고 CNN 뉴스나 BBC 뉴스를 들려주면, 놀랄 만큼 정확하고 빠른 속도로 영문 글자 자막을 착착 만들어 낸다. 출시 초기 버전이 이 정도의 정확도를 보인다면, 향후 시간이 지나면서 인공지능/머신러닝 기술로 인해 인식 정확도는 한층 더 향상되리라 기대한다.

구글은 트랜스크라이브를 개발하며 청각장애/난청 환자 분야의 최고 대학인 미국 갤러뎃(Gallaudet) 대학교(워싱던 D.C. 소재)와 협력했고, 청각장애우들의 사전 테스트를 통해 주요 피드백을 반영했다. 구글은 이후로도 트랜스크라이브의 품질을 지속 개선하려 다양한 피드백을 모으고 있다.

글 / IT동아 이문규 (munch@itdonga.com)

Download Transcribe!


pc version
(mobile app. 구글 플레이스토어)

edited by kcontents

Being a (lazy) writer, I’m always on the prowl for an easy solution to transcribe interviews. I’ve tried dozens of free apps and trials, but the one that really stands out for English is Otter.ai. Don’t worry though, I’ll also delve into a non-English solution further down.

Transcribing interviews in English

Honestly, I don’t like being overly positive when it comes to services and products, but the free version of Otter.ai is the very best solution I’ve found so far. It’s extremely simple and easy to use:

You create an account

Upload an audio file or record directly via Otter.ai

Then it automatically churns out a transcript in a few minutes, split up into paragraphs with time stamps, and each section is marked by different speakers

Then you can edit, listen back to, and search the interview, as well as change the speakers’ names to indicate who is talking (and it’ll update automatically throughout)

Credit: Otter.ai

Otter.ai automatically sorts your transcriptions by time, but you can also create folders and share them with a group of people.

Credit: Otter.ai

It also generates automatic keyword from the interview and separates quotes based on who is talking.

The free version comes with plenty of options and 600 minutes of transcription every month, which is more than enough for my usage. But there’s also a premium paid version which provides 6,000 minutes and comes with some additional features. 


Otter.ai’s transcription is generally quite accurate, but you might run into some trouble if you’re using technical/specific vocabulary, or if the speaker’s accent is quite thick and the quality of the audio recording is low.

But even in those cases, I find Otter.ai useful because of the time stamps. If I do a 40-minute interview, I might remember afterwards there was an interesting quote I’d like to grab. Then I simply search for a keyword that I think the AI might’ve caught despite audio issues, and listen back to the quote rather than trust the transcription blindly. Basically, it creates a way for you to use CTRL+F/CMD+F on an audio file — which is awesome.

Transcribing for other languages than English

Unfortunately, Otter.ai and most other free solutions don’t support other languages than English. So what you’re left with is a pretty awkward ‘hack’ which I personally don’t care for, but hey, desperate times call for desperate measures.

Quartz recommended this trick a couple of years back, and it revolves around taking advantage of Google Doc’s built-in voice typing tool. The idea is to listen back to the interview on headphones, then repeat it out loud (as it can’t transcribe playbacks from speakers) and have the voice typing do the actual transcription. Sure you want to do this? Okay, here’s how it works:

Open up Google Docs on Chrome and select the ‘Voice typing’ option under the ‘Tools’ section. Then you’ll see the voice typing button appear, click it and start reciting the interview while you listen to it on your headphones.

Voice typing is easy to find, but make sure you have your microphone turned on.

Select your preferred language, then click the Voice Typing button and start narrating. Btw, I realize Icelandic was a tall order, still bummed it didn’t work.

Now there are numerous downsides to this. First of all, if it’s a 40-minute interview, it’ll take at least 40-minutes to transcribe. Then there’s the issue of time stamps and accounting for multiple speakers. The accuracy of the transcription also varies greatly depending on the language (doesn’t really work for Icelandic for example, my beautiful native language). Then finally, I just feel awkward as hell dictating an interview to my laptop. 

But, if this is truly your last resort, hopefully it can save you from the painful transcribing process.

Read next: Review: The Roborock S5 robo-vacuum is fast, powerful, and quiet(ish)




Posted by engi, conpaper engi-

나노 로봇을 활용해 인간의 두뇌를 클라우드 네트워크에 연결할 수 있을까? 

Connecting the human brain with cloud networks could happen within the 'next few decades', researchers speculate

   정보기술, 나노기술, 인공지능 분야의 급격한 발전으로 인해 과학자들이 인간 두뇌와 인터넷을 수십년 안에 연결해줄 수 있게 될 가능성이 만들어질 것으로 예상되어 관련 내용을 상세히 살펴보고자 한다.

최근 미국 캘리포니아주의 UC버클리대학의 분자제조연구소의 연구진들에 의한 새로운 연구결과에 의하면, '인간 두뇌 및 클라우드 인터페이스'라 불리우는 이번 새로운 기술을 통해 사람의 두뇌의 시냅스와 뉴런을 광대한 클라우드 네트워크에 실시간으로 연결하여 인간이 엄청난 컴퓨팅 능력과 지식을 홀로 생각하게 해줄 수 있는 가능성이 열리게 될 수 있다는 주장을 제기하였다.

The Human Brain Is a Time Traveler - The New York Times


Connecting the human brain with cloud networks could happen within the 'next few decades', researchers speculate

A "human brain/cloud interface" would connect brain cells to vast cloud networks in real time

Connecting the human brain with cloud networks could happen within the 'next few decades', researchers speculate

Dev Kundaliya

16 April 2019


Scientists believe development of "human brain/cloud interface" in future would allow connecting brain cells to vast cloud networks in real time. Image via Pixabay

Exponential advancement in the fields of IT, nanotechnology and AI could enable scientists to connect human brains with the internet "within decades". That's according to a new study by researchers...


edited by kcontents

여기서 말하는 인간 두뇌를 인터넷에 연결하는 개념은 새로운 것이 아니라 볼 수 있겠는데, 미래학자이자 발명가인 Ray Kurzweil씨가 검색엔진에 쿼리를 입력하고 잠재적 결과를 기다리는 것이 아닌 자신의 쿼리에 대한 답변을 두뇌와 클라우드 네트워크를 연동하여 신속하게 찾을 수 있다는 주장을 내세웠으며, 향후 클라우드 네트워크에서 인간 두뇌의 피질과 인공 신피질을 연결하기 위해 신경 나노로봇을 개발할 수 있음을 제안하였으며 향후 10년 내 컴퓨터가 인간만큼 스마트해질 것이라는 점도 언급하였다.

이제 UC버클리 대학의 연구진들은 나노 로봇을 인체에 투입하여 머지 않은 미래에 시릿간으로 네트워크에 연결할 수 있음을 제안하였는데, 나노 크기의 인공기기들이 인간의 신체를 탐험하여 궁극적으로 두뇌 세포 사이에 자리를 잡아 실시간으로 데이터를 다운로드하고 데이터 추출을 위해 두뇌에서 클라우드 기반 네트워크로 인코딩된 정보를 통신하게 될 수 있다는 주장을 내세웠다고 한다.


Human Brain/Cloud Interface


edited by kcontents

신경 나노로봇공학에 의해 중재된 인간의 두뇌 및 클라우드 인터페이스 시스템은 인간의 학습 및 지능을 크게 향상시켜 클라우드에 저장된 모든 인간의 지식에 발빠른 접근을 가능하게 해줄 수 있을 것으로 보고 있으며, 본 기술을 통해 집단적 사고 과정을 위한 세계 최고의 두뇌를 개발할 수도 있음을 제안한 것으로 나타났다고 한다. 이는 각각의 인간 두뇌들이 네트워크 형태로 서로 연결되어있을 때 발생가능한 일이라 볼 수 있다.


이처럼 신경 나노로봇의 발전으로 인해 인류가 실시간으로 무수히 많은 인간과 기계적인 생각 및 사고를 활용 가능하게 하는 미래의 슈퍼두뇌의 탄생을 기대하고 있으며, 이러한 공유된 인지력으로 인해 민주주의에 혁명을 불러일으킬 뿐 아니라 궁극적으로는 공감능력을 강화시킬 수 있을 가능성도 제기되고 있다.



Posted by engi, conpaper engi-

World's fastest jet pack which reaches 50mph and costs £340,000 is built by a British student using a 3D printer

A design student from Loughborough University has demonstrated the world's fastest jet pack, reaching speeds of 50mph (80km/h) and has 1,000BHP(brake horsepower). Footage shows Sam, who studies Product Design and Tech, taking to the skies in the jet suit in front of amazed students at Loughborough Design School.

세계 최고 속도를 가진 제트팩

시속 80km 

가격 34만 파운드(미화 43만불)로 영국 러프버러 디자인스쿨의 한 학생이 개발했다.

3D 프린터로 제작했다.

A British student has designed and flown the world's fastest jet pack- reaching speeds of 50mph. Sam Rogers, from Loughborough University, perfected the redesign of a suit that was created entirely by a 3D printer - but still cost £340,000



Posted by engi, conpaper engi-

Engineers built a robot fish that powers itself with 'fake blood'

By Michelle Lou, CNN

Updated 2015 GMT (0415 HKT) June 20, 2019

To tackle an energy problem in robots, engineers at Cornell University and the University of Pennsylvania turned to human bodies for inspiration.

Engineers at two US universities built a robotic lionfish that uses a synthetic vascular system to distribute energy-dense battery fluid, called "robot blood," to power it./image:dailymail

생물처럼… 몸속에 ‘피’가 흐르는 로봇 물고기

美 코넬대, 소프트 로봇 개발 주목

    미국 코넬대와 펜실베이니아대 연구팀이 개발한 로봇 물고기가 수조 속을 헤엄치고 있다(왼쪽 사진). 미국 코넬대와 펜실베이니아대 연구팀이 개발한 로봇 물고기의 내부 구조가 공개됐다. 지느러미의 회색 부분은 물고기에게 전원을 공급하는 ‘레독스 흐름 배터리’다. 로봇 내부에 흰색 혈관처럼 보이는 부분은 전해액이 이동하는 통로다. 펜실베이니아대 제공

20세기 초 체코의 작가 카렐 차페크는 자신의 희곡 ‘로섬의 유니버설 로봇’에서 인간 노동을 대신하는 존재로 로봇이라는 말을 처음 썼다. 그 뒤 100년간 로봇은 영화와 애니메이션에서 사람이나 동물과는 전혀 다른 딱딱한 몸체를 가진 복잡한 기계 장치로 주로 묘사됐다. 

최근 미국 과학자들이 사람처럼 몸에 에너지를 공급하는 피가 흐르고 여기에서 힘을 얻어 헤엄을 치는 로봇 물고기를 개발해 눈길을 끌고 있다. 로버트 셰퍼드 미국 코넬대 기계항공공학부 교수 연구팀은 전기를 공급하는 전해액과 로봇의 동력을 만드는 유압액을 섞은 이른바 ‘합성 혈액’으로 작동하는 로봇 물고기를 개발했다고 국제학술지 ‘네이처’ 20일자에 공개했다.

연구팀이 개발한 로봇 물고기는 부드럽고 휘는 소재로 만들어 살아있는 생물처럼 움직이는 소프트 로봇이다. 몸에 가시처럼 난 등지느러미가 특징인 쏠배감펭의 모습을 그대로 모방했다. 약 40cm 길이의 로봇 물고기는 꼬리지느러미와 등지느러미, 배지느러미 등 물고기가 가진 몸 조건을 모두 갖췄다. 지느러미 속에는 합성 혈액으로 전기를 생산하는 배터리를 넣었고, 심장 역할을 하는 순환 펌프로 몸 곳곳에 혈액을 공급한다. 로봇 물고기는 아직은 실제 물고기처럼 민첩하지는 못해도 스스로 1분에 자기 몸길이의 1.56배(약 62cm)를 헤엄치는 데 성공했다. 재충전을 하지 않고 37시간 동안 헤엄친다. 

소프트 로봇은 주로 실리콘이나 고무처럼 부드럽고 유연한 소재로 만든다. 형태를 마음대로 바꿀 수 있어 사람의 힘이 닿지 않는 재난 구조 현장이나 수중 탐색 현장에서 활용할 수 있으리라는 기대를 모은다. 이런 환경에서 활용하려면 외부와 단절된 채로 오랜 시간 혼자서 움직이는 능력이 필요하다. 자주 충전하지 않고도 임무를 수행하려면 에너지 저장 기술이 핵심이다. 문제는 배터리를 추가하면 무게도 함께 늘어나 더 많은 에너지가 필요하다는 점이다. 

소프트 로봇은 에너지 저장 방식에 많이 좌우된다. 몸 전체가 유연해야 하는 특성상 상대적으로 효율성이 높은 딱딱한 배터리를 쓸 수 없기 때문이다. 미국 하버드대 연구팀은 최근 과산화수소를 분해할 때 나오는 산소 기체의 압력을 이용해 움직이는 ‘옥토봇’을 내놓기도 했다. 최정우 서강대 교수 연구진도 생쥐 심장 근육세포를 이식해 몸을 움직이게 한 가오리 로봇을 개발하기도 했다. 하지만 이들 로봇은 구동 시간의 한계가 컸다.

연구팀은 동물이 피를 동력원으로 활용하듯 액체 배터리를 활용하는 방법을 알아냈다. 전해액을 활용하는 2차전지인 레독스 흐름 배터리(RFB)를 활용했다. 배터리에 음극액과 양극액을 막으로 분리한 채 담으면 둘 사이에 전기의 흐름이 생기는 원리를 이용하는 전지다. 이를 두고 ‘흐름 배터리’로 부르는 이유는 음극액과 양극액을 펌프로 계속 순환시켜 전해액을 공급하기 때문이다. 펌프 역시 흐름 배터리에서 나오는 전기를 쓰기 때문에 외부로부터 별도의 전기 공급이 필요 없다. 

로봇 물고기는 이렇게 생산된 전기를 동력으로 바꾸지 않고 전해액을 유압액처럼 사용했다. 꼬리지느러미 오른쪽과 왼쪽에 각각 레독스 흐름 배터리가 설치됐는데 몸통과 꼬리 연결부에 달린 펌프가 음극액을 왼쪽과 오른쪽 전지에 번갈아 보내는 식이다. 음극액이 왼쪽에 차면 반대로 오른쪽은 음극액이 없어져 쪼그라든다. 이런 과정을 좌우로 반복하면 물고기 꼬리가 좌우로 움직이며 물속에서 앞으로 나아간다. 로봇 물고기가 위아래로 움직이게 배지느러미도 상하로 움직이게 했다. 

셰퍼드 교수는 “별도의 배터리와 유압 유체 시스템을 가지는 로봇에 비해 에너지양을 325% 늘렸다”고 말했다.

조승한 동아사이언스 기자 shinjsh@donga.com 

edited by kcontents

They designed a robotic lionfish decked out with a system that mimics a human's vascular system, which transports blood and other nutrients throughout the body.

However, this synthetic vascular system distributes "robot blood," or energy-dense battery fluid to power the robot, according to the engineers' study, published Wednesday in science journal Nature.

The soft robot is built from flexible silicon materials, which allow it to bend.

When the engineers tested the battery, they found it will work theoretically for about 40 hours, said Robert Shepherd, director of Cornell's Organic Robotics Lab and senior author of the paper.

A possible new way to design robots


With the engineers' biology-inspired advancement, robots could become more autonomous and prevalent in our lives.

Currently, robots are limited because they require a lot of energy. But this study could lead to "increased energy density, autonomy, efficiency and multifunctionality in future robot designs," according to the study.

MIT teaches robots to &#39;feel&#39; objects just by looking at them

MIT teaches robots to 'feel' objects just by looking at them

"You'll want (longer power) for search and rescue operations, to locate the source of failure in a nuclear reactor compound, finding people in a plane crash or exploration in space or underwater," Shepherd said. "These are places that having a robot that can operate for a long time would be important."

The battery design could also alter robot designs.



edited by kcontents

"This doesn't only increase the operating time of a robot but also potentially removes some of the need for wiring," Shepherd said. "You could distribute power throughout the robot rather than having a central location ... which means less electrical resistance and less weight from power wiring."



'Robot blood' powers machines for lengthy tasks

Date: June 20, 2019

Source: Cornell University


Researchers have created a system of circulating liquid -- 'robot blood' -- within robotic structures, to store energy and power robotic applications for sophisticated, long-duration tasks.




Researchers at Cornell University have created a system of circulating liquid -- "robot blood" -- within robotic structures, to store energy and power robotic applications for sophisticated, long-duration tasks.

The researchers have created a synthetic vascular system capable of pumping an energy-dense hydraulic liquid that stores energy, transmits force, operates appendages and provides structure, all in an integrated design.

"In nature we see how long organisms can operate while doing sophisticated tasks. Robots can't perform similar feats for very long," said Rob Shepherd, associate professor of mechanical and aerospace engineering at Cornell. "Our bio-inspired approach can dramatically increase the system's energy density while allowing soft robots to remain mobile for far longer."

Shepherd, director of the Organic Robotics Lab, is senior author of "Electrolytic Vascular Systems for Energy Dense Robots," which published June 19 in Nature. Doctoral student Cameron Aubin is lead author.

The researchers tested the concept by creating an aquatic soft robot inspired by a lionfish, designed by co-author James Pikul, a former postdoctoral researcher, now an assistant professor at the University of Pennsylvania. Lionfish use undulating fanlike fins to glide through coral-reef environments.

Silicone skin on the outside with flexible electrodes and an ion separator membrane within allows the robot to bend and flex. Interconnected zinc-iodide flow cell batteries power onboard pumps and electronics through electrochemical reactions. The researchers achieved energy density equal to about half that of a Tesla Model S lithium-ion battery.


edited by kcontents

The robot swims using power transmitted to the fins from the pumping of the flow cell battery. The initial design provided enough power to swim upstream for more than 36 hours.

Underwater soft robots offer tantalizing possibilities for research and exploration. Since aquatic soft robots are supported by buoyancy, they don't require an exoskeleton or endoskeleton to maintain structure. By designing power sources that give robots the ability to function for longer stretches of time, Shepherd thinks autonomous robots could soon be roaming Earth's oceans on vital scientific missions and for delicate environmental tasks like sampling coral reefs. These devices could also be sent to extraterrestrial worlds for underwater reconnaissance missions.

The work was supported by the Office of Naval Research. Co-authors include Lynden Archer, the James A. Friend Family Distinguished Professor of Engineering in the Smith School of Chemical and Biomolecular Engineering; Snehashis Choudhury, currently a postdoctoral researcher at Stanford; and doctoral candidate Rhiannon Jerch.

Story Source:

Materials provided by Cornell University. Original written by Matt Hayes. Note: Content may be edited for style and length.



Posted by engi, conpaper engi-

기업의 도전 전폭 지원하는 이스라엘..."실패해도 걱정마"

‘스페이스IL’이 개발한 무인 탐사선 ‘베레시트(Beresheet,히브리어로 창세기)’

    "스페이스IL의 이번 달 착륙시도는 아쉽게 실패로 끝났지만 이스라엘은 달 착륙을 2년 안에 다시 시도할 것입니다. 첫번째에 성공 못했다면 다시 한번 더 하면 됩니다."

지난 4월 12일 이스라엘 비영리기업 ‘스페이스IL’이 개발한 무인 탐사선 ‘베레시트(히브리어로 창세기)’가 달 착륙에 실패하며 베냐민 네타나후 이스라엘 총리가 남긴 말이다. 베레시트는 이스라엘 정부가 아닌 이스라엘 민간기업 스페이스IL이 만든 탐사선으로 민간 최초 달 착륙을 시도했다. 

이스라일 첫 민간 탐사선인 '베레시트'의 발사를 직원들이 초조하게 지켜보고 있다. 신화통신/연합뉴스 제공


UK Space Agency awards Israeli co hiSky $11.3m


18 Jun, 2019 17:40

by TaboolaPromoted Links

hiSky aims to be the world’s first low-cost communications satellite network operator.

Israeli satellite communications company hiSky has been awarded $11.3 million (£9 million) by the UK Space Agency. hiSky will establish a subsidiary hiSkySat Limited, based in London, with an R&D center at Harwell to develop a satellite communications network management system (NMS) and an operations center, the British government has announced.

hiSky aims to be the world’s first low-cost satellite network operator, bringing innovative technology to voice and data satellite communications, and leveraging existing satellite capacity to reduce costs associated with building and launching new satellites.

Part of the new project will integrate and develop 5G networks into their ‘Smartellite’ satellite receiving terminal and carry out a demonstration to show how it can connect seamlessly between different satellites and operators. This will help roll out the next generation of Internet of Things technology, connecting machines and vehicles around the world and enabling remote monitoring of infrastructure such as power lines and wind turbines.


edited by kcontents

스페이스IL팀과 항공회사인 IAI가 미국 플로리다주에서 이스라엘의 첫 달 탐사선 '베레시트'의 연료주입 및 조립 테스트를 성공적으로 마쳤다. 스페이스IL

베레시트의 메인 엔진과 관성 측정기에 문제가 생겨 아쉽게 달착륙 시도는 실패로 돌아갔지만 네타나후 총리의 말과 함께 정부 측 지원이 공고하다는 것을 증명하며 2년 후 재도전을 약속했다. 실제로 이스라엘 매체 예루살렘 포스트에 따르면 착륙 실패 이틀 후 오피르 아쿠니스 이스라엘 과학기술부 장관은 ‘베레시트 2호’ 제작에 2000만 셰켈(약65억원)을 투자하겠다는 계획을 밝혔다. 


과학연구와 인류에 도움이 되는 우주 개발은 선진국들의 전유물이었다. 로켓이나 인공위성, 과학 탑재체 등을 개발하는 데 막대한 규모의 예산이 투입되는 만큼 정부가 주도했다. 1957년 10월 4일 지구 궤도에 세계 최초 진입한 인공위성인 러시아의 스푸트니크, 1961년 4월 21일 세계 최초 유인우주비행에 성공한 러시아 우주인 유리 가가린, 1969년 7월 20일 인류 최초로 달 착륙에 성공한 미국의 아폴로 11호 등 인류에 역사에 획기적인 발자취를 남긴 우주개발은 모두 정부 주도 하에 이뤄졌다. 1992년 발사된 한국 최초의 인공위성 우리별 1호와 한국 최초의 우주발사체인 나로호(KSLV-1)의 개발도 정부가 이끌었다.

2019년 2월 21일(미 현지시각) 달 탐사선 '베레시트'가 스페이스X 팔콘9 로켓에 실려 발사되고 있다. UPI/연합뉴스

하지만 정부 주도 하의 우주개발은 너무 많은 예산이 투입된다는 여론에 부딪혔다. 미국과 함께 경쟁하며 세계 우주개발을 선도해오던 구소련이 1991년 해체되며 우주개발산업 방향에도 변화가 찾아왔다. 전세계 국가들은 단순히 국가간 경쟁에 따른 우주개발이 아닌 국민 생활에 도움이 되고 경제성을 최대한 확보하는 우주개발에 힘을 쏟기 시작했다. 정부가 직접 하기보다는 민간 우주개발 생태계를 키워내고 자생적으로 산업이 활성화하는 데 방점을 찍었다. 

이스라엘은 이런 우주개발 변화 분위기를 현실화한 국가로 주목받고 있다. 이스라엘의 우주정책은 주로 군사 및 상업적 활용에 초점을 두고 있다. 1945년 영국으로부터 독립한 이후 주변의 아랍국가들과 고유의 우주개발 정책을 수행해왔다. 우선 이스라엘의 우주개발 체계는 국방성이 이스라엘 군의 우주프로그램을 통제하며 총리에 보고하는 체계다. 이스라엘 통산사업성은 이스라엘 항공회사인 IAI가 주도하는 산업 프로젝트를 지원하며 총리에게 보고하는 체제를 이룬다. 

이스라엘 탐사선 '베레시트'가 지구를 배경으로 찍은 셀카사진을 공개했다. 오른쪽은 베레시트가 전송한 마지막 달 촬영사진이다. 스페이스IL

정부 소유의 위성 및 발사체 제작사이기도 한 IAI는 이스라엘의 발사체 및 위성의 설계와 제작을 책임진다. 이스라엘 정부가 민간 기업에 참여해 우주개발을 지원하고 있는 것이다. 

국방부는 발사체개발을 포함한 대부분의 우주개발 프로젝트에 자금을 지원하고 있으며 이스라엘 우주청(ISA)도 우주개발에 상당한 금액을 쏟아부으며 민간 우주활동을 지원하고 있다. IAI는 Amos1, Spacecom, ImageSat 등의 인공위성을 개발했다.

스페이스IL도 정부의 헌신적인 지원을 받는 민간 기업 중 하나다. 이스라엘 정부는 이번 베레시트 개발에 1000만 셰켈(약33억원) 정도 밖에 지원하진 않았다. 이스라엘 억만장자 모리스 칸 등 민간에서 대부분 비용을 조달했다.

오필 아쿠니스 이스라엘 과학기술우주항공부 장관(맨 오른쪽) 

하지만 아쿠니스 장관은 베레시트 2호 개발에 대한 정부의 지원금 상향을 발표할 당시 “베레시트 프로젝트는 달에 성공적으로 착륙할 것을 기대하는 이스라엘 시민들을 매료시키고 단결시켰다”며 “정부의 지원을 두 배로 늘리고 미국항공우주국(NASA)과의 협력을 심화하기로 한 이번 결정은 베레시트 2호의 성공적인 달 착륙에 이바지할 것이라는 데 의심의 여지가 없다”며 스페이스IL 지지 의사를 공고히 했다. 실제로 ISA는 NASA에 베레시트 2호에 대한 기술지원도 요청한 것으로 알려졌다. 

이스라엘 스페이스IL의 달 착륙 시도는 지금까지 정부 주도로 달 착륙에 성공한 구 소련과 미국, 중국과는 달랐다. 비록 1차시도는 실패했지만 베레시트 미션은 근본적으로 ‘리스크’가 크기 때문에 투자자들도 기꺼이 실패를 받아들인다는 반응이다. 향후 저렴한 비용으로 민간도 달 탐사에 도전할 수 있다는 것을 직접 보여줬다는 점에서 충분히 가치 있는 도전이었다는 평가를 받고 있으며 향후 2년내 베레시트 2호 발사할 예정이다.

′베레시트′가 달 표면에 부딪히기 전(왼쪽)과 부딪힌 후의 모습이 공개됐다. NASA 제공

고재원 기자 jawon1212@donga.com 동아사이언스


Posted by engi, conpaper engi-

This “Duck” Robot Helps Rice Farmers in Japan

by Kelly Knox

Jun 14 2019 • 2:00 PM

If it glides like a duck, and paddles like a duck, it must be… a robot? An engineer with Nissan Japan volunteered his time and energy to creating a high-tech solution to an age-old problem–and it’s adorable.



닛산 엔지니어, 쌀농사 도와주는 '오리 로봇' 개발

친환경 농법으로 농부들의 고민 해결

   농사일을 돕는 오리 로봇이 일본에 등장했다.

'닛폰닷컴'에 따르면 닛산 재팬의 한 엔지니어가 오래된 농업 문제에 대한 첨단 기술 솔루션으로 오리 로봇을 탄생시켰다.

잡초와 해충은 농부들이 직면하는 문제지만 제초제와 살충제는 환경이나 건강에 해를 끼치기 때문에 최소화하는 것이 바람직하다. 닛산 재팬의 엔지니어 기술자인 데쓰마 나카무라(Tetsuma Nakamura)는 농부들이 쌀 작물에 제초제와 살충제의 사용을 줄이도록 기술 수준이 낮은 솔루션을 지속 가능한 해결책으로 바꾸었다. 농부인 친구를 돕기 위한 것이 계기가 됐다.

일본 북동부 야마가타현에서는 작은 흰색 로봇이 논을 돌아다닌다. 로봇이 물속을 미끄러지듯 지나갈 때 바닥 진흙 위에 있는 두 개의 장치는 잡초가 자랄 수 있는 충분한 햇빛을 받지 못하게 해준다. 이 기술은 20세기 후반 라이브 오리인 ‘아이가모(aigamo)와 함께 사용되었는데 이 오리는 같은 결과로 물을 노를 저어 가며 도중에 발견한 곤충을 잡아먹는다.

오리 로봇은 와이파이, 배터리, 태양광, GPS를 이용해 논을 누빌 수 있다. 동영상에서 얕은 물 속을 헤엄치는 룸바 크기의 로봇을 보는 것만으로도 재미있는 구경거리다. 닛산이 이 로봇을 제조하거나 판매할 생각은 없지만 개인 엔지니어의 이같은 노력에 대해서는 높이 평가하고 있다.

김지영  robot3@irobotnews.com로봇신문사 

edited by kcontents

Weeds and pests are a problem any farmer faces, but the engineer turned a low-tech solution into a sustainable one to help farmers reduce the use of herbicide and pesticide on their rice crops. In Yamagata Prefecture in northeast Japan, a small white robot patrols the rice paddies. As it glides through the water, two mechanisms on the bottom muddy the water to prevent weeds from getting enough sunlight to grow. The technique was used in the late 20th century with live ducks, called “aigamo,” which would paddle the water with the same results and eat any insects they found along the way. (It’s not quite as exciting as robots pulling a truck.)

The Nissan engineer, Tetsuma Nakamura, created the robot to help a friend, reports Nippon.com. Hear from him in the video below; although there are no English subtitles, the video is a fun watch just to see the Roomba-sized robot swim through the shallow water.



도쿄대, 바다거북 자동 추적 수중 자율로봇 개발

해양 생물 생태 연구에 기여 예상

    일본 도쿄대 ‘생산기술연구소’ 연구팀이 바다거북을 자동으로 추적할 수 있는 수중자율로봇(AUV)을 개발했다고 일간공업신문이 보도했다.

수중 로봇에 설치된 '소나(sonar)' 장비를 이용해 획득한 이미지를 인공지능(AI) 기술로 분석해 바다거북의 발견 및 이동 상황 추적 등이 가능하다. 연구팀은 인공으로 조성한 해수 연못에 바다거북을 플어놓고 로봇의 추적 성능을 확인했다.







edited by kcontents

이 로봇은 해양 생물을 쫓아다니면서 데이터를 수집할 수 있다. 기존의 해양생물에 관한 연구는 바다 생물을 잡아 센서를 붙이고 놓아주는 방식인데 센서의 선택이 제한적이었다.

이번에 개발된 수중자율로봇은 시야각이 좌우 130도, 상하 20도인 소나 장비를 이용해 전방을 촬영한 후 획득한 이미지를 AI 기술로 처리하는 방식이다. 소나 이미지 분석을 통해 바다 거북을 발견하면 이동 방향 등을 계산해 바다거북과 4m 정도의 거리를 유지하면서 추적할 수 있도록 설계됐다.

소나를 이용하면 흑백의 농담이 있는 거친 이미지를 얻을 수 있다. 바다거북 감지에는 실시간으로 움직이는 일반 물체 인식 AI인 '욜로(YOLO)'를 채택했다. 욜로의 학습 모델에 일반적인 풀 컬러 이미지 데이터를 활용해 학습시키고, 바다거북의 소나 이미지를 다시 학습시켰다. 인식 성능이 높은 컬러 학습 모델을 전용해 소나 이미지 데이터의 부족한 부분을 보완했다. 인식 정확도는 88%로 인식 노이즈를 제거하면 실용적으로 사용하는 데 문제가 없다는 게 연구팀의 설명이다.

연구팀이 고베공항 인근에 있는 인공 해수연못에서 실험한 결과 바다거북이 방향을 갑자기 바꾸더라도 실시간으로 추적이 가능한 것으로 확인됐다. 실험에선 270초간 5×8 미터의 범위에서 바다거북을 쫓아갔다.

로봇으로 해양 생물을 자동 추적하면 대형 센서를 복수로 투입할 수 있다. DNA 센서, 냄새 센서 등과 영상을 동기화해 기록하는 방식으로 해양 생물 조사 연구의 폭을 넓힐 수 있다. 기존에는 동물에 스트레스가 되지 않도록 소형 센서를 동물 몸체에 제한적으로 부착했다.

장길수  ksjang@irobotnews.com 로봇신문사


Posted by engi, conpaper engi-