'건설 에너지 동향 Construction and Energy News /IT 과학 IT & Science'에 해당되는 글 882건

  1. 2019.04.18 공기 중에서 깨끗한 물을 수확할 수 있는 새로운 신소재 VIDEO: Solar-powered moisture harvester collects and cleans water from air
  2. 2019.04.18 공포감 마저 드는 로봇견 군단 VIDEO: Terrifying robo-dogs now travel in PACKS: Boston Dynamics releases footage of 10 bots working together to haul a truck
  3. 2019.04.16 화재 소실 노트르담 성당 복원에 사용될 정밀한 디지털 지도 VIDEO; Detailed 3D laser scans of Notre Dame Cathedral captured by late historian could be ..
  4. 2019.04.12 UC버클리, 5천달러대 인공지능 로봇 '블루' 개발 VIDEO: Meet Blue, the low-cost, human-friendly robot designed for AI
  5. 2019.04.11 세계 최초로 관측된 'M87' 블랙홀 VIDEO: To Truly Appreciate The M87 Black Hole Pic, You Need to See Just How Huge It Is
  6. 2019.04.09 ‘스마트 반지’ 개발 어디까지 왔나 VIDEO: What is a smart ring? An introduction to tech-laden jewelry
  7. 2019.04.09 5G산업에 23년까지 30兆 투자한다
  8. 2019.04.04 시카고 대, 획기적인 저가형 적외선 카메라 구현 Breakthrough could enable cheaper infrared cameras
  9. 2019.04.02 3점슛 쏘는 휴머노이드 로봇 개발 VIDEO: Move over, Steph Curry: Six-foot 10-inch robot can hit perfect 3-pointers, free throws and rarely ..
  10. 2019.03.31 보스턴 다이나믹이 개조한 유용한 창고 로봇 VIDEO: Boston Dynamic reinvents one of its robots into an ostrich-like warehouse machine capable of..


Solar-powered moisture harvester collects and cleans water from air


(Nanowerk News) Access to clean water remains one of the biggest challenges facing humankind. A breakthrough by engineers at The University of Texas at Austin may offer a new solution through solar-powered technology that absorbs moisture from the air and returns it as clean, usable water.


AUSTIN, Texas — Access to clean water remains one of the biggest challenges facing humankind. A breakthrough by engineers at The University of Texas at Austin may offer a new solution through solar-powered technology that absorbs moisture from the air and returns it as clean, usable water./fli.institute

edited by kcontents


 

공기 중에서 깨끗한 물을 수확할 수 있는 새로운 신소재


   미국 텍사스대학(The University of Texas at Austin)과 중국 남경사범대학(Nanjing Normal University)의 연구진은 공기 중의 수분을 흡수해서 깨끗한 물을 만들 수 있는 신소재를 개발했다. 이 기술은 다량의 물을 보유할 수 있는 슈퍼 스펀지(super sponge)를 활용하고, 이러한 스펀지는 하이드로겔, 겔-폴리머 하이브리드 재료로 구성되어 있다.


인류가 직면하고 있는 가장 큰 문제 중의 하나는 깨끗한 물이 부족하다는 것이다. 따라서 이 기술은 빈곤에 시달리는 지역, 개발도상국, 재난 상황, 수해 지역 등에 매우 유용하게 적용될 수 있을 것이다.


이번 연구진은 물 흡수성이 높고 가열 시에 물을 방출할 수 있는 새로운 하이드로겔을 만들었다. 이 하이드로겔은 습기가 높은 환경과 건조한 기후 조건 하에서 성공적으로 작동한다는 것이 입증되었다. 이것은 깨끗하고 안전한 식수 공급에 매우 중요하다.


대기에는 약 5만 입방 킬로미터의 물이 존재한다. 이 새로운 시스템은 저렴한 비용의 소형 휴대용 여과 장치를 만드는데 적용될 수 있을 것이다.


작동 방식은 간단하다. 하이드로겔을 외부에 놓아두기만 하면 물이 모이게 된다. 수집된 물은 햇빛에 노출될 때까지 하이드로겔 속에 존재한다. 햇빛 아래에서 약 5 분 후에 물이 방출되게 된다. 이 하이드로겔은 흡습성(수분 흡수)과 열 반응성 친수성(가열시 물을 방출하는 능력)을 동시에 가지고 있다.


이 새로운 신소재는 대기 중의 수분을 수집하고 햇빛 아래에서 깨끗한 물을 생산할 수 있다. 이것은 냉장고와 유사한 원리로 작동한다. 대부분의 냉장고는 수증기 응축 과정을 통해 냉기를 유지한다. 이런 응축 과정 동안에 주변의 물을 흡수하게 된다. 그러나 일반적인 냉장고는 작업을 수행하는데 많은 에너지를 필요로 한다. 그러나 이번 방식은 단지 태양 에너지만을 필요로 하고, 평균 가구의 일일 물 수요를 소형 장비로 충족시킬 수 있다. 프로토타입 테스트를 거쳤을 때, 하이드로겔 1 킬로그램 당 최대 50 리터의 물을 생산할 수 있었다.


이 새로운 기술은 기존의 태양열 집수 시스템 또는 다른 흡습 기술을 대체하는데 크게 기여할 것이다. 이 연구결과는 저널 Advanced Materials에 “Super Moisture-Absorbent Gels for All-Weather Atmospheric Water Harvesting” 라는 제목으로 게재되었다(https://doi.org/10.1002/adma.201806446).

ndsl.kr


edited by kcontents


The breakthrough, described in a recent issue of the journal Advanced Materials ("Super Moisture-Absorbent Gels for All-Weather Atmospheric Water Harvesting"), could be used in disaster situations, water crises or poverty-stricken areas and developing countries. The technology relies on hydrogels, gel-polymer hybrid materials designed to be "super sponges" that can retain large amounts of water.


      


A research team led by Guihua Yu in UT Austin's Cockrell School of Engineering combined hydrogels that are both highly water absorbent and can release water upon heating. This unique combination has been successfully proved to work in humid and dry weather conditions and is crucial to enabling the production of clean, safe drinking water from the air.


With an estimated 50,000 cubic kilometers of water contained in the atmosphere, this new system could tap into those reserves and potentially lead to small, inexpensive and portable filtration systems.


"We have developed a completely passive system where all you need to do is leave the hydrogel outside and it will collect water," said Fei Zhao, a postdoctoral researcher on Yu's team and co-author of the study. "The collected water will remain stored in the hydrogel until you expose it to sunlight. After about five minutes under natural sunlight, the water releases."


This technology builds upon a 2018 breakthrough made by Yu and Zhao in which they developed a solar-powered water purification innovation using hydrogels that cleans water from any source using only solar energy. The team's new innovation takes that work a step further by using the water that already exists in the atmosphere. For both hydrogel-based technologies, Yu and his research team developed a way to combine materials that possess both hygroscopic (water-absorbing) qualities and thermal-responsive hydrophilicity (the ability to release water upon simple heating).


 

Manufacturing.net

edited by kcontents


"The new material is designed to both harvest moisture from the air and produce clean water under sunlight, avoiding intensive energy consumption," said Yu, an associate professor of materials science and mechanical engineering.




Harvesting water from moisture is not exactly a new concept. Most refrigerators keep things cool through a vapor condensation process. However, the common fridge requires lots of energy to perform that action. The UT team's technology requires only solar power, is compact and can still produce enough water to meet the daily needs of an average household. Prototype tests showed daily water production of up to 50 liters per kilogram of hydrogel.


Representing a novel strategy to improve upon atmospheric water harvesting techniques being used today, the technology could also replace core components in existing solar-powered water purification systems or other moisture-absorbing technologies.

Yu and his team have filed a patent, and Yu is working with UT's Office of Technology Commercialization on the licensing and commercialization of this innovative class of hydrogels.

Source: University of Texas at Austin

https://www.nanowerk.com/nanotechnology-news2/newsid=52365.php


 kcontents

Posted by engi, conpaper engi-


Terrifying robo-dogs now travel in PACKS: Boston Dynamics releases footage of 10 bots working together to haul a truck



Shocking new video shows the Spotpower robot dogs hauling a massive truck

Boston Dynamics said 10 robots dragged the truck uphill across a parking lot

Firm is now rolling the robo-dogs off the production line for sale later this year 




 

공포감 마저 드는 보스턴 다이나믹스 로봇견 군단


    보스턴 다이나믹스의 로봇은 단순히 걷고, 점프하고, 계단을 오르는 것 이상을 할 수 있다. 


새로운 영상에서, 이 회사는 스폿 파워 로봇 개들이 주차장을 가로질러 트럭을 끄는 것이 보여지기 때문에 얼마나 강력한 힘을 얻었는지를 보여주었다.


중립 기어에 있는 차량을 끌고 가는 데 필요한 것은 첨단 로봇 10개뿐이다. 


보스턴 다이나믹스는 로봇들이 거리가 얼마인지 또는 운송 기간이 얼마인지는 말하지 않았지만, 약 1도 각도로 트럭을 오르막으로 운반할 수 있었다고 언급했다


황기철 콘페이퍼 에디터 큐레이터

Ki Cheol Hwang, conpaper editor, curator


edited by kcontents


      


By ANNIE PALMER FOR DAILYMAIL.COM

PUBLISHED: 23:21 BST, 16 April 2019 | UPDATED: 23:21 BST, 16 April 2019


Boston Dynamics' robots can do more than just walk, jump and climb stairs. 


In a new video, the company demonstrated just how powerful its Spotpower robot dogs have gotten, as a pack of them are shown pulling a truck across a parking lot.


All it takes is 10 of the advanced robots to drag a vehicle that's in neutral gear. 


Boston Dynamics noted that the robots were able to haul the truck at an approximately 1 degree angle uphill, though it doesn't say what the distance was or the duration of the haul.


The firm said the robots were able to haul the truck at a nearly 1 degree angle uphill, adding that its robot dogs are so advanced that they're now being rolled off the production line


Boston Dynamics didn't say just how the Spotpower will be put to work, but prior suggestions have included deployment in warehouses, disaster relief situations or security purposes


View Full Text

https://www.dailymail.co.uk/sciencetech/article-6929763/Boston-Dynamics-releases-footage-10-robo-dogs-working-haul-truck.html




kcontents

Posted by engi, conpaper engi-


Detailed 3D laser scans of Notre Dame Cathedral captured by late historian could be used to save the building, as officials pledge to restore it in the wake of the fire


 

After devastating fire, 3-D scans of Notre Dame from work of researcher Andrew Talon could be saving grace 

Using lasers and panoramic photography Tallon constructed an exact digital copy of the historic building

His groundbreaking work also uncovered clues as to how the cathedral was built and changed over time




 

화재 소실 노트르담 성당 복원에 사용될 정밀한 디지털 지도


복원에 큰 기여할 듯


   치명적인 화재의 여파로 노트르담의 복원을 위한 키는 레이저 기술을 사용하여 만들어진 완벽한 지도의 디지털 복사본에 의해 이루어질 수 있다. 


지난해 49세의 나이로 뇌암으로 사망한 건축가 앤드류 탤런은 2015년 레이저 기술과 디지털 사진을 혼합해 파리의 노트르담 대성당의 모든 세부사항을 힘들지만 성공적으로 만들었다.


탈론은 10억 개 이상의 자료를 사용하여 대성당을 생동시킬 수 있었다. 지금까지 만들어진 건물 중 가장 정확한 렌더링 방식이었다.




특히 탈론은 50여 곳에 걸쳐 교회 내외부의 정확한 3-D 사양을 측정하기 위해 회전 레이저 기계를 사용했다.


황기철 콘페이퍼 에디터 큐레이터

Ki Cheol Hwang, conpaper editor, curator


안타까운 '파리 노트르담 대성당'에 큰불 VIDEO: Why the Notre Dame fire was so hard to put out

https://conpaper.tistory.com/76773


edited by kcontents


By JAMES PERO FOR DAILYMAIL.COM

PUBLISHED: 17:27 BST, 16 April 2019 | UPDATED: 18:06 BST, 16 April 2019


The key to rebuilding Notre Dame in the wake of a devastating fire could rely on a perfectly mapped digital copy created by using laser technology. 


In 2015 the late architect Andrew Tallon -- who died last year of brain cancer at the age of 49 -- successfully and painstakingly captured every detail of Paris' Notre Dame cathedral by employing a mix of laser technology and digital photography.  




Using more than 1 billion points of data Tallon was able to bring the cathedral to life in what is the most accurate rendering of the building ever made.


Specifically, Tallon used a rotating laser machine to measure exact 3-D specifications of the interior and exterior of the church throughout more than 50 locations. 


YTN

edited by kcontents


He then used panoramic photographs of the same locations mapped by lasers to overlay aesthetic detail, which allowed Tallon to stitch together a replica that was not only accurate in dimension but in physical appearance. 


Tallon was not the first to leverage laser technology to map medieval buildings, but in the case of Notre Dame, he was by far the most successful.




A previous attempt to capture the cathedral in a digital replica resulted in researchers' machine literally going up in smoke, according to a National Geographic report. 


Perhaps the most groundbreaking results of Tallon's work that separate it from other digital scans of Notre Dame's ilk, is is that it created not only a copy of how the building looked in the present moment, but also how it changed over time.

https://www.dailymail.co.uk/sciencetech/article-6928363/3D-laser-scans-Notre-Dame-Cathedral-captured-late-historian-used-save-building.html


KCONTENTS

Posted by engi, conpaper engi-


Meet Blue, the low-cost, human-friendly robot designed for AI

By Kara Manke| APRIL 9, 2019


Robots may have a knack for super-human strength and precision, but they still struggle with some basic human tasks — like folding laundry or making a cup of coffee.


Blue’s creators, Pieter Abbeel, David Gealy and Stephen McKinley. (Philip Downey photo)


 

UC버클리, 사람 처럼 유연한 인공지능 로봇 '블루' 개발


5천 달러대


 

 산업용 로봇은 고도의 정확성과 반복성, 빠른 속도를 중요한 특징으로 한다. 로봇의 기능을 조금이라도 수정하려면 매우 까다로운 프로그래밍 절차를 거쳐야한다. 하지만 미래의 로봇은 가정이나 직장에서 특별하게 정의된 작업만을 하는 것이 이나라 커피를 내리고 빨래를 개는 등 유연한 작업을 수행할 수 있어야한다. 또 복잡한 프로그램 수정 과정 없이도 로봇이 스스로 학습할 수 있는 능력을 갖추고 있어야한다. 여러 작업을 할 수 있는 범용 로봇 개발은 로봇 과학자들의 오랜 꿈이다.


* 상단 사진 설명: 피터 애빌 교수(좌측)


'MIT 테크놀로지 리뷰' 등 매체에 따르면 UC 버클리 '피터 애빌(Pieter Abbeel)' 교수 등 과학자들은 심층 강화학습 방식의 인공지능 알고리즘을 이용해 빨래를 개거나 커피를 내리는 등 복잡한 작업을 수행할 수 있는 로봇인 ‘블루(Blue)’를 개발했다. 일종의 범용 로봇이다.


이 로봇은 일부 3D프린팅 부품을 사용했으며, 부드러운 성질의 타이밍 벨트 등 부품을 활용한 'QDD(quasi-direct drive)' 액추에이터를 채택, 사람과 충돌하더라도 안전하도록 설계됐다. VR헤드마운트 장비와 핸드헬드 컨트롤러를 이용해 로봇을 제어할 수 있다. 조작자가 VR헤드 마운트를 쓰고 팔을 움직이면 로봇이 같이 움직인다. VR장비 없이 손에 컨트롤러를 잡고 조작하는 것도 가능하다. 인공지능 기술을 이용해 로봇 팔에 부착된 집게를 조작, 물건을 다루는 방법을 훈련시켰다.


이 로봇은 5천 달러 미만의 가격으로 제작할 수 있는 게 특징이다. 기존에 나와있는 다른 로봇들과 비교할 때 파격적이다. 박스터 로봇은 블루보다 5배 이상 비싸고 쿠카 LBR은 7만 달러, 프랑카 에미카는 3만 달러에 달한다. 연구자들에게 오랫동안 사랑을 받아왔던 윌로우 개러지(Willow Garrage)가 개발한 PR2는 높은 가격에도 볼구하고 더 이상 구입하거나 서비스를 받을 수 없다. 


5천 달러 가격대의 로봇은 로봇 연구자들이나 개발자들에게 매력적인 가격이다. 연구팀은 이 로봇을 개인용 컴퓨터인 ‘애플 II(Apple II)’에 비유했다. 1970년대와 1980년대에 아마추어 동호인들과 해커들이 애플 II를 이용해 컴퓨터의 세계에 빠지면서 기술 혁명을 이끌었던 것처럼 블루 로봇을 이용해 로봇 혁명 시대를 앞당겨야 한다는 바램을 담고 있다. 




블루 로봇은 사람의 상체와 비슷한 크기이며, 7자유도의 로봇팔을 갖추고 있다. 페이로드는 2kg이다. 낮은 레벨의 로봇 제어 소프트웨어와 VR 시스템을 활용하고 있으며 기존의 AI 운용 컴퓨터와 호환성을 갖추고 있다는 설명이다.



이 로봇 개발 프로젝트는 피터 애빌 교수가 운영하고 있는 로봇 연구실에서 시작됐다. 피터 애빌 교수는 오랫동안 로봇 기술에 인공지능을 접목하려는 노력을 해왔다. 블루 로봇 연구팀은 이 프로젝트를 위한 지적 재산권(IP)을 신설 기업인 ‘버클리 오픈 암(Berkeley Open Arms)’을 통해 UC버클리로부터 라이센스 받았다. 연구팀은 가상세계의 머신러닝을 로봇 하드웨어에 이전하는 데 많은 어려움이 있었지만 큰 진전을 이룩했다고 설명했다.


연구팀이 블루 로봇을 5천 달러 이하 가격에 내놓는다면 많은 로봇 연구자들과 개발자들이 낮은 예산으로 로봇 연구를 할수 있을 것으로 기대된다. 

장길수  ksjang@irobotnews.com 로봇신문사


edited by kcontents




Enter Blue, a new low-cost, human-friendly robot conceived and built by a team of researchers at the University of California, Berkeley. Blue was designed to use recent advances in artificial intelligence (AI) and deep reinforcement learning to master intricate human tasks, all while remaining affordable and safe enough that every artificial intelligence researcher — and eventually every home — could have one.


Blue is the brainchild of Pieter Abbeel, professor of electrical engineering and computer sciences at UC Berkeley, postdoctoral research fellow Stephen McKinley and graduate student David Gealy. The team hopes Blue will accelerate the development of robotics for the home.


“AI has done a lot for existing robots, but we wanted to design a robot that is right for AI,” Abbeel said. “Existing robots are too expensive, not safe around humans and similarly not safe around themselves – if they learn through trial and error, they will easily break themselves. We wanted to create a new robot that is right for the AI age rather than for the high-precision, sub-millimeter, factory automation age.”


Over the past 10 years, Abbeel has pioneered deep reinforcement learning algorithms that help robots learn by trial and error or by being guided by a human like a puppet. He developed these algorithms using robots built by outside companies, which market them for tens of thousands of dollars.


      


Blue’s durable, plastic parts and high-performance motors total less than $5,000 to manufacture and assemble. Its arms, each about the size of the average bodybuilder’s, are sensitive to outside forces — like a hand pushing it away — and has rounded edges and minimal pinch points to avoid catching stray fingers. Blue’s arms can be very stiff, like a human flexing, or very flexible, like a human relaxing, or anything in between.


Currently, the team is building 10 arms in-house to distribute to select early adopters. They are continuing to investigate Blue’s durability and to tackle the formidable challenge of manufacturing the robot on a larger scale, which will happen through the UC Berkeley spinoff Berkeley Open Arms. Sign-ups for expressing interest in priority access start today on that site,


“With a lower-cost robot, every researcher could have their own robot, and that vision is one of the main driving forces behind this project — getting more research done by having more robots in the world,” McKinley said.


From moving statue to lithe as a cat

Robotics has traditionally focused on industrial applications, where robots need strength and precision to carry out repetitive tasks perfectly every time. These robots flourish in highly structured, predictable environments — a far cry from the traditional American home, where you might find children, pets and dirty laundry on the floor.




“We’ve often described these industrial robots as moving statues,” Gealy said. “They are very rigid, meant to go from point A to point B and back to point A perfectly. But if you command them to go a centimeter past a table or a wall, they are going to smash into the wall and lock up, break themselves or break the wall. Nothing good.”


If an AI is going to make mistakes and learn by doing in unstructured environments, these rigid robots just won’t work. To make experimentation safer, Blue was designed to be force-controlled — highly sensitive to outside forces, always modulating the amount of force it exerts at any given time.


Blue’s grippers holding a planetary gear set. (Philip Downey photo)

edited by kcontents


“One of the things that’s really cool about the design of this robot is that we can make it force-sensitive, nice and reactive, or we can choose to have it be very strong and very rigid,” Gealy said. “Researchers can adjust how stiff the robot is, and what kind of stiffness — do you want it to feel like molasses? Do you want it to feel like a spring? A combination of those? If we want robots to move toward the home and perform in these increasingly unstructured environments, they are going to need that capability.”


To achieve these capabilities at low cost, the team considered what features Blue needed to complete human-centered tasks, and what it could go without. For example, the researchers gave Blue a wide range of motion — it has joints that can move in the same directions as a human shoulder, elbow and wrist — to enable humans to more easily teach it how to complete tricky maneuvers using virtual reality. But the agile robot arms lack some of the strength and precision of a typical robot.


“What we realized was that you don’t need a robot that exerts a specific force for all time, or a specific accuracy for all time. With a little intelligence, you can relax those requirements and allow the robot to behave more like a human being to achieve those tasks,” McKinley said.


Blue is able to continually hold up 2 kilograms of weight with arms fully extended. But unlike traditional robot designs that are characterized by one consistent “force/current limit,” Blue is designed to be “thermally-limited,” McKinley said. That means that, similar to a human being, it can exert a force well beyond 2 kilograms in a quick burst, until its thermal limits are reached and it needs time to rest or cool down. This is just like how a human can pick up a laundry basket and easily carry it across a room, but might not be able to carry the same laundry basket over a mile without frequent breaks.


“Essentially, we can get more out of a weaker robot.” Gealy said. “And a weaker robot is just safer. The strongest robot is most dangerous. We wanted to design the weakest robot that could still do really useful stuff.”


“Researchers had been developing AI for existing hardware and, about three years ago, we began thinking, ‘Maybe we could do something the other way around. Maybe we could think about what hardware we could build to augment AI and work on those two paths together, at the same time,’” McKinley said. “And I think that is a really dramatic shift from the way a lot of research has taken place.”

https://news.berkeley.edu/2019/04/09/meet-blue-the-low-cost-human-friendly-robot-designed-for-ai/



kcontents

Posted by engi, conpaper engi-


To Truly Appreciate The M87 Black Hole Pic, You Need to See Just How Huge It Is

MIKE MCRAE 11 APR 2019



 

세계 최초로 관측된 'M87' 블랙홀


‘실제 블랙홀’ 최초 관측 성공

지구로부터 5500만 광년 거리…질량 태양의 65억배 달해


    세계 최초로 초대질량 블랙홀 모습이 공개됐다.


국내 천문학자를 포함한 사건지평선망원경(EHT·Event Horizon Telescope) 연구진은 거대은하 ‘M87′ 중심부에 있는 블랙홀 관측에 성공했다고 10일 밝혔다.


EHT는 블랙홀 영상을 포착하기 위해 국제협력을 통해 구축한 지구 크기의 거대한 가상 망원경이다.

세계 각지의 전파망원경을 연결하는 방식으로 프로젝트를 진행했다.


관측 결과는 이날 미국 천체물리학 저널 레터스(The Astrophysical Journal Letters) 특별판에 6편의 논문으로 발표됐다.

관련 영상은 처녀자리 은하단 중심부에 존재하는 ‘M87′ 중앙 블랙홀을 보여준다.


학술적으로 블랙홀은 빛조차 탈출할 수 없는 강한 중력을 가지고 있다.


이름처럼 흔히 검은 구멍을 상상하지만, 빛까지 흡수하기 때문에 직접 볼 수는 없었다.

그간의 블랙홀 이미지는 이론을 바탕으로 한 예측 모델이다.


사건지평선은 블랙홀 안과 밖을 연결하는 지대를 뜻한다.

블랙홀은 사건지평선 바깥을 지나가는 빛도 휘어지게 만든다. 할리우드 영화 ‘인터스텔라’에 비슷한 이미지가 표현됐다.


대형 블랙홀이 주변의 가스를 빨아들이면서 빛을 방출하는 상상도 ⓒ미국항공우주국(NASA)/ 연합뉴스


블랙홀 뒤편에 있는 밝은 천체나 블랙홀 주변에서 내뿜는 빛은 왜곡돼 블랙홀 주위를 휘감는다.

왜곡된 빛은 우리가 볼 수 없는 블랙홀을 비춰 윤곽이 드러나게 하는데, 이를 ‘블랙홀의 그림자’(Black Shadow)라고 부른다.


연구진은 여러 번의 관측자료 보정과 영상화 작업을 통해 고리 형태 구조와 중심부 어두운 지역, 즉 블랙홀 그림자를 발견했다.

M87 사건지평선은 약 400억㎞에 걸쳐 드리워진 블랙홀 그림자보다 2.5배가량 더 작다는 것을 밝혀냈다.




EHT 과학이사회 위원장인 네덜란드 래드버드 대 하이노 팔크 교수는 “만약 블랙홀이 밝게 빛나는 가스로 이뤄진 원반 형태의 지역에 담겨 있다면, 그림자 같은 어두운 지역을 만들어 낼 것이라고 예측했다”며 “이 현상은 아인슈타인 일반상대성이론에서 예상한 바지만, 우리가 이전에는 전혀 직접 보지 못한 것”이라고 말했다.


관측에 성공한 블랙홀은 지구로부터 5500만 광년 떨어져 있다.

질량은 태양의 65억 배에 달한다. 태양 1개의 질량이 지구 33만2000여개 질량과 맞먹는 걸 고려하면 가늠하기조차 어려울 정도다.


EHT 프로젝트 총괄 단장인 미국 하버드 스미스소니언 천체물리센터 셰퍼드 도엘레만 박사는 “우리는 인류에게 최초로 블랙홀 모습을 보여주게 됐다”며 “이 결과는 천문학 역사상 매우 중요한 발견이며, 200명이 넘는 과학자 협력으로 이뤄진 이례적인 성과”라고 강조했다.


실제 관측은 2017년 4월 5∼14일 6개 대륙 8개 망원경 참여를 통해 진행했다.


아타카마 밀리미터·서브밀리미터 전파간섭계(ALMA)와 아타카마 패스파인더(APEX), 유럽 국제전파천문학연구소(IRAM) 30m 망원경, 제임스 클러크 맥스웰 망원경(JCMT), 대형 밀리미터 망원경(LMT), 서브밀리미터 집합체(SMA), 서브 밀리미터 망원경(SMT), 남극 망원경(SPT) 등이다.


지구 자전을 이용해 영상을 합성하는 기술이 도입됐다.

1.3㎜ 파장 대역에서 하나의 거대한 지구 규모 망원경이 구동되는 셈이다.


 

국내 천문학자를 포함한 사건지평선망원경(EHT·Event Horizon Telescope) 연구진은 거대은하 ‘M87′ 중심부에 있는 블랙홀 관측에 성공했다고 지난 10일 밝혔다. EHT는 블랙홀 영상을 포착하기 위해 국제협력을 통해 구축한 지구 크기의 거대한 가상 망원경이다. ⓒ Event Horizon Telescope Collaboration / 연합뉴스

edited by kcontents


EHT의 공간분해 성능은 프랑스 파리의 카페에서 미국 뉴욕의 신문 글씨를 읽을 수 있는 정도라고 한국천문연구원 측은 설명했다.


EHT 연구진은 같은 시각에, 서로 다른 망원경을 통해 들어온 블랙홀 전파신호를 컴퓨터로 통합 분석한 뒤 이를 역추적했다.


원본 데이터를 최종 영상으로 바꾸는 데 필요한 연구는 독일 막스 플랑크 전파천문학연구소와 미국 매사추세츠공대(MIT) 헤이스택 관측소에 있는 슈퍼컴퓨터를 활용했다.


우리나라에선 한국천문연구원·과학기술연합대학원대학교·서울대·연세대 등에서 8명이 프로젝트에 힘을 보탰다.

한국우주전파관측망(KVN)과 동아시아우주전파관측망(EAVN)도 이번 연구에 이바지했다.


한국천문연구원 손봉원 박사는 “아인슈타인의 일반상대성이론에 대한 궁극적인 증명”이라며 “그간 가정했던 블랙홀을 실제 관측해 연구하는 시대가 왔음을 의미한다”고 말했다.


이번 연구 성과 관련 기자회견은 벨기에 브뤼셀, 덴마크 링비, 칠레 산티아고, 중국 상하이, 일본 도쿄, 대만 타이베이, 미국 워싱턴 DC 등지에서 동시에 이뤄졌다.

연합뉴스/ ScienceTimes


edited by kcontents


By now, we've all seen the history-making snapshot of the supermassive black hole at the centre of galaxy M87 staring back at us like the flaming eye of a vengeful god.


It's a powerful image. Makes you feel tiny. Really tiny. Not feeling it? Maybe you just need to comprehend the scale of this thing.




This beast is roughly 55 million light years away, deep inside a galaxy with a radius of 60,000 light-years. Our own galaxy is over 100,000 light-years across by comparison. 


The black hole's mass is something else. Multiply the amount of stuff that makes up our Sun by 6.5 billion. Cram all of that mass into a volume so small, it technically has no spatial dimensions.


 

This odd little dot packed with a stupid amount of mass warps surrounding space to such a degree, even light lacks the acceleration to compete with it.




To have a hope of escaping, that photon would need to be around 18,000,000,000 kilometres away from the middle. Or about 122 times the distance between Earth and the Sun. Any closer, and it falls into its warped shadow of doom.


Outside of that border of no hope, matter swirls ever closer to oblivion at a rate that approaches the Universe's top speed limit, spewing out radiation as it goes. 


Sometimes numbers just don't do it justice. A scale diagram is what you need.

Lucikly Randall Munroe of XKCD fame has provided just that. Just look at it and weep.


View Full Text

https://www.sciencealert.com/to-truly-appreciate-the-m87-black-hole-pic-you-need-to-see-just-how-big-it-is


kcontents

Posted by engi, conpaper engi-


‘스마트 반지’ 개발 어디까지 왔나 


일종의 지능형 보석

기술 개발 잰걸음…미적인 부분도 고려


   최근 스마트 링(smart ring)이 하나 둘 등장해 소비자들의 눈길을 끌고 있다.

스마트 링이란 보통 반지처럼 생겼으나 그 안에 기술들이 주입돼 있는 일종의 지능형 보석을 말한다.


Image Credit: Oura Ring


What is a smart ring? An introduction to tech-laden jewelry

By Becca Caddy 2 days ago Wearables  


Listen up wearable fans: it’s time to put a ring on it


Smart rings have been in development for years. But only recently have a number of brands emerged that have created smart rings that look good, feel good and pack useful tech into such a tiny form factor. 

Put simply, a smart ring is a ring that’s got some kind of tech built into it, whether that’s an NFC chip or sensors, like an optical heart rate monitor or accelerometer. 

Most of them can also sync up to your smartphone via Bluetooth, enabling you to find out more about the data they’re collecting. However, just because a device is called a smart ring doesn’t mean it’s necessarily packed with tech. A number of different smart rings are currently on the market. 

Some smart rings track your sleep, activity, pulse rate and more, costing £270 ($352 / £497AUD) and beyond. Others have only an NFC chip on-board to unlock things and will only set you back £9.99 ($13 / $18AUD).

https://www.techradar.com/news/smart-rings


edited by kcontents


최근 선보이고 있는 스마트 링을 보면 그 안에 센서, 혹은 근거리 무선통신이 가능한 NFC 컨트롤러, 시각적으로 측정이 가능한 심박수 측정기 등이 들어 있어 대금 결제, 건강관리 등과 관련된 정보들을 다양하게 읽어낼 수 있다.


갈등 속에서 획기적 기술 개발에 성공 

그동안 웨어러블 기술을 개발해오던 사람들은 스마트 링의 미래를 매우 밝게 보고 있는 중이다.


기존의 스마트폰, 스마트 워치 등과의 경쟁 관계를 넘어서 웨어러블 산업 전체를 뒤바꿔놓을 혁명적인 기기라고 주장하는 사람들도 늘고 있다.




실제로 시장조사기관인 ‘absolute reports’에 따르면 2019년부터 2025년까지 스마트 링 시장이 5배 이상 성장할 것으로 예상하고 있다. 이런 분위기 속에서 많은 기업, 투자자들이 신기술 개발에 뛰어들고 있다.


하지만 8일 영국의 IT 전문매체 ‘테크레이더(Techrader)’에 따르면 아직 이렇다 할만한 스마트 링은 나타나지 않았다.


최근 첨단 초소형 기술이 스마트 링에 적용되면서 스마트폰, 스마트워치 등 스마트 기기들과 경쟁할 채비를 갖추고 있다. 사진은 비접촉식 대금 결제 기능으로 큰 주목을 받은 바 있는 커브 반지.  ⓒKERV


개발자들은 반지 안에 소비자들이 안심하고 사용할 수 있는 기술을 삽입하는데 주력하고 있지만, 실상은 갖가지 갈등에 허덕이면서 삶의 질을 바꿔놓겠다는 당초 목표를 달성하지 못하고 있다.


현재 스마트 링을 개발해 선보이고 있는 업체들은 커브(Kerv), 핀(Fin), 알투루이스(Altruis), 스마티 링(Smarty Ring), 노드(Nod), 모타즈 스마트 링(Mota’s Smart Ring) 등 다수가 있다.


이들 기업들은 대부분 자금 확보에 성공할 기업들이다. 그러나 지금까지 전해진 소식에 의하면 실패 사례가 성공 사례를 압도하고 있다. 어려움을 겪고 있는 이유는 지적재산권 문제 등 법적 갈등 때문인 것으로 알려졌다.


대표적인 사례가 커브(Kerv)다. 이 스타트업에서는 비접촉식 결제 반지(contactless payment ring)의 개념을 창출한 후 NFC(근거리무선통신) 반지를 개발했다. 접촉이 없이도 대금 결제가 가능한 반지를 말한다.


이 반지에 대한 소식이 전해지면서 커브에 사람들의 관심이 집중됐다. 기존의 전자지갑, 스마트폰 등의 결제 기능을 대체할 수 있는 획기적인 기술로 예상되면서 파급효과가 엄청날 것으로 예상됐기 때문.


반지 안에 전자지갑‧헬스케어 기능 등 주입 

제품 개발 과정은 순조로웠다. 클라우드 펀딩을 돕는 킥스타터(Kickstarter)를 통해 자금 확보에도 성공했다. 순풍을 타고 지난 2016년 4월 첫 제품이 출시될 예정이었다.


그러나 갑자기 제품 출시가 중단됐다. 많은 사람들이 궁금해하는 가운데 2017년 1월 커브는 킥스타너를 통해 투자자들에게 서신을 보냈다. 커브에서 개발한 비접촉식 결제 반지가 지적재산권 분쟁에 휘말렸다는 것.


저작권, 상표를 다루는 정부 기관에서 분쟁이 마무리될 때까지 제품 개발과 출시를 중단할 것을 통보해왔다며 이런 상황을 헤아려줄 것을 부탁했다.


기술적인 문제도 만만치 않은 상황이다. 센서, NFC 칩, 블루투스 기능, 배터리 등을 반지 속에 주입하는 일이 쉽지 않았던 것. 특히 보석으로 꾸며져 있는 반지 모양을 훼손하지 않은 채 첨단 기술을 주입하는 일은 더욱 어려운 일이었다.


갖가지 난관에 부딪히면서 미래가 촉망되던 스마트 링의 존재에 암운이 드리워졌다.


그러나 관계자들은 이런 난관들이 어느 시기에 가서 해결될 것으로 보고 있다. 스마트 워치 등 다른 웨어러블 기기들 역시 이런 과정을 거쳤다는 것.


실제로 첨단 기술로 최근 기존의 상식을 뒤집은 새로운 스마트 링들이 하나, 둘 모습을 들어내고 있다. 핀란드 스타트업 우라(Oura)가 개발한 우라 링(Oura Ring)을 예로 들 수 있다.




이 반지 안에는 적외선 맥박 측정기, 신체의 움직임을 감지할 수 있는 3D 가속도 센서(3D accelerometer), 몸의 움직임과 균형을 측정할 수 있는 자이로스코프,체온 측정 센서 등 다양한 기능들이 내장돼 있다.


초소형 배터리를 장착할 수 있으며, 심지어 다양한 프로세서를 좁은 공간에서 정밀하게 제어할 수 있는 마이크로 컨트롤로까지 장착돼 있다.


Amazon.com

edited by kcontents


우라 링은 반지 외부를 최첨단 기술인 티타늄 코팅, DLC(Diamond like carbon coating) 코팅을 사용했으며, 내부는 알레르기를 일으키지 않는 비금속의 매끄러운 조형물로 구성하는데 성공했다.


NFC 링(NFC Ring)에서 개발한 OPN 링(OPN Ring)은 저자극성 세라믹으로, 그 안에 초소형 안테나와 NFC 칩을 장착하고 있다. 문이나 특별한 금고 등을 여는데 이 기능을 사용할 수 있다.


개발자들의 관심은 첨단 기능의 스마트 링에 보석 세공자들이 적용하고 있는 미적인 디자인을 결합하는 일이다. 이를 위해 기존 보석 기능을 대체할 수 있는 소재 개발에 많은 노력을 기울이고 있다.




불과 수년 전까지 상상하지 못했던 기술들이 스마트 링에 적용되고 있는 중이다.


모든 기술들이 성공을 거둘 수 있을지는 미지수이지만 이런 추세로 기술 개발이 이루어진다면 컨설팅업체들이 예측하듯이 2020년대 들어 스마트 링 시대가 도래할 가능성이 커질 것으로 기대된다.

이강봉 객원기자 aacc409@naver.com ScienceTimes


 kcontents

Posted by engi, conpaper engi-


5G산업에 23년까지 30兆 투자한다


2026년까지 일자리 60만 개를창출


  정부가 5세대(5G) 이동통신산업을 육성하기 위해 민간과 협력, 2023년까지 30조원 이상을 투자하기로 했다. 이후 추가 투자 등을 통해 2026년까지 일자리 60만 개를 창출하기로 했다. 이 기간 5G 산업에서 생산액 180조원, 수출액 730억달러(약 83조원)를 달성한다는 목표도 제시했다.


5대 5G+ 핵심서비스 분야 실증·확산 추진 예시

과학기술정보통신부

edited by kcontents


과학기술정보통신부 등 10개 관계부처는 8일 서울 올림픽공원에서 ‘코리안 5G 테크 콘서트’를 열어 이 같은 내용의 5G플러스 전략을 발표했다.


정부는 5G플러스 전략으로 5G 기반 신산업과 신서비스를 키워 ‘세계 최초 상용화’를 넘어 ‘세계 최고 5G 생태계’를 구축한다는 방침이다. 이를 위해 차세대 스마트폰, 로봇, 드론(무인항공기) 등 10개 산업 분야를 5G플러스 전략 산업으로 지정했다. 또 실감콘텐츠, 스마트공장, 스마트시티, 자율주행자동차, 디지털헬스케어를 5대 핵심 서비스로 육성하기로 했다. 30조원대 민관 협력 투자금액 중 10조원 이상은 5G 기반 공공 서비스 도입과 콘텐츠·디바이스 연구개발 지원 등에 투입할 계획이다. 나머지 20조원은 통신망 구축 등에 투자한다.


문재인 대통령은 이날 행사에 참석해 “5G는 혁신성장의 인프라”라고 강조했다. 이어 “청년들에게는 새로운 도전의 기회를, 국가적으로는 제2의 벤처붐을 일으키는 기회가 될 것”이라고 말했다.


생산 180兆·수출 730억弗·일자리 60만개…"5G로 대한민국 대전환"


“세계 최초가 세계 최고를 보장해주지는 않습니다. 우리 함께 최고를 만들어봅시다.”


유영민 과학기술정보통신부 장관이 8일 서울 올림픽공원에서 ‘5세대(5G)플러스’ 전략을 발표한 뒤 통신 3사인 SK텔레콤, KT, LG유플러스와 삼성전자, LG전자 최고경영자(CEO)에게 당부한 말이다. 5G플러스는 한국이 지난 3일 세계 최초로 5G 상용 서비스를 시작한 것을 계기로 내놓은 전략이다.


정부는 5G플러스 전략을 통해 ‘세계 최고 5G 생태계’를 구축한다는 계획이다. 유 장관은 이날 행사 직후 과기정통부에서 기자간담회를 열어 “이제 세계 최초 얘기는 그만하자”며 “진짜 전쟁은 지금부터”라고 강조했다. 5G 생태계를 주도하기 위한 서비스, 콘텐츠, 디바이스 경쟁이 치열하게 벌어질 것이란 얘기다.



30조원 투자해 킬러서비스 키운다


세계 최고 5G 생태계 구축을 위해 정부 10조원, 민간 20조원 등 30조원 이상을 투자할 계획이다. 유 장관은 “30조원이란 투자 규모는 과거 4G(LTE) 투자 경험과 예측 가능한 프로젝트 등을 고려해 부처 간 협의로 도출한 최소 금액”이라며 “기술과 서비스 발전 속도에 따라 더 많은 투자가 이뤄질 것”이라고 설명했다.


민관은 이 같은 대규모 투자를 통해 10대 핵심 산업과 5대 핵심 서비스를 적극 육성한다. 분야별 킬러 서비스를 실증해 보급·확산시킨다는 전략이다.




예컨대 5대 핵심 서비스인 디지털 헬스케어 분야에선 응급의료와 병원 간 원격협진 등에 5G 기반 서비스를 도입한다. 2021년까지 3년간 5G 기반 인공지능(AI) 응급의료시스템을 개발하는 데 180억원을 투자한다. 중증외상, 심근경색 등 골든타임이 중요한 환자들이 신속히 처치받을 수 있도록 응급현장과 구급차, 병원을 연결하는 시스템이다. 2025년까지 전체 구급차 7000여 대와 응급의료기관 400여 곳의 20%에 이런 시스템을 보급하기로 했다.


자율주행자동차 서비스 육성을 위해선 2020년까지 경기 성남시 판교와 대구 등에서 5G 자율주행 셔틀을 운행한다. 이후 2025년까지 5G 버스 1000여 대를 지방자치단체에 보급할 계획이다. 한류 콘텐츠 확산을 위해서는 가상현실(VR)·증강현실(AR) 콘텐츠 제작·유통을 지원한다. 국립박물관 네 곳에 문화유산 실감 체험관을 설립할 예정이다.


“세계 최초로 표준화 선도”


민간 투자 확대를 위한 지원책도 마련했다. 5G 전국망 조기 구축을 위해 내년까지 통신사에 망투자 세액을 2~3% 공제해준다. 내년 이동통신 연구개발(R&D) 예산 중 35%는 중소기업의 5G 장비 기술사업화 R&D에 투자한다. 2022년까지 제조공정 혁신을 위해 중소·중견기업 공장 1000곳에 스마트공장 솔루션도 보급할 예정이다.



5G 사업과 관련한 규제도 완화한다. 규제 샌드박스 제도를 통해 규제 개선 사항을 지속적으로 발굴, 해소하기로 했다. 5G플러스 전략의 추진계획을 세우는 민관 합동 ‘5G플러스 전략위원회’도 구성해 운영하기로 했다. 위원장은 과기정통부 장관과 민간 전문가가 함께 맡는다. 또 과기정통부는 2차관이 주재하는 ‘5G플러스 전략 점검회의’를 열어 추진 상황을 점검하기로 했다.




세계 5G 이동통신 기술 표준화 선도 전략과 관련해선 “세계 최초 5G 상용 서비스로 표준화 선도 효과가 있었다”고 유 장관은 평가했다. “평창동계올림픽에서 선보인 5G 기반 서비스에 활용된 기술의 85%가 표준으로 채택됐다”고 설명했다.


그는 이어 “모든 부처와 민관이 한 팀이 돼 끊임없이 소통하고 총력을 기울일 때 5G플러스 전략이 열매를 맺을 수 있다”며 “5G플러스 전략의 적극적인 실행을 통해 5G 신시장을 선점하도록 노력할 것”이라고 강조했다.

전설리, 박재원 기자 sljun@hankyung.com 한국경제 

케이콘텐츠

Posted by engi, conpaper engi-


Breakthrough could enable cheaper infrared cameras


(Nanowerk News) There's an entire world our eyes miss, hidden in the ranges of light wavelengths that human eyes can't see. But infrared cameras can pick up the secret light emitted as plants photosynthesize, as cool stars burn and batteries get hot. They can see through smoke and fog and plastic.


Electronic Component News


 

시카고 대, 획기적인 저가형 적외선 카메라 구현 


   인간의 눈에는 볼 수 없는 빛의 파장 범위에 숨어있는 세계가 있다. 


그러나 적외선 카메라는 냉각된 별이 타거나 배터리가 뜨거워하고 식물이 광합성 함에 따라 방출되는 비밀의 빛을 찾아낼 수 있다. 그 소자들은 연기와 안개와 플라스틱을 투과할 수 있다.


그러나 적외선 카메라는 가시 광선 카메라보다 훨씬 비싸다. 적외선의 에너지는 가시 광선보다 작기 때문에 포착하기가 더 어렵다. 그러나 시카고 대학의 과학자들에 의한 새로운 획기적인 기술은 향후 매우 비용 효율적인 적외선 카메라로 이어질 수 있다. 그러면 적외선 카메라를 휴대폰과 같은 일반 소비자 전자 제품에 사용할 수 있을 뿐만 아니라 센서로 자율 차량이 주변 환경을 보다 정확하게 파악할 수 있다.


적외선 카메라를 만드는 전통적인 방법은 재료와 시간면에서 매우 많은 비용이 든다. 그러나 이 방법은 훨씬 빠르며 우수한 성능을 제공한다 (Nature Photonics, "Dual-band infrared imaging using stacked colloidal quantum dot photodiodes")


오늘날의 적외선 카메라는 여러 층의 반도체를 연속적으로 배치하여 제작된다. 까다롭고 오류가 발생하기 쉬운 프로세스로 대부분의 소비 전자 제품에 들어가는데 너무 비싸다.


연구팀은 이러한 반도체를 크기는 수 나노 미터에 불과한 초소형 나노 입자인 양자점으로 대체했다. 이 스케일에서 그들은 크기에 따라 변하는 특이한 특성을 가지고 있는데, 과학자들은 입자를 올바른 크기로 조정함으로써 제어할 수 있다. 이 경우 양자점은 적외선 파장을 포착하도록 조정할 수 있다.


이 '조정 가능성'은 적외선 스펙트럼의 다른 부분을 픽업해야 하기 때문에 카메라에서 중요하다. 적외선 내에서 여러 파장을 수집하면 더 많은 스펙트럼 정보를 얻을 수 있다. 이는 흑백 TV에 컬러를 추가하는 것과 같다. 단파는 조직과 화학 성분 정보를 제공하며 중간 파장은 온도를 제공한다.


Machine learning reveals hidden turtle pattern in quantum fireworks

edited by kcontents


그들은 단파 적외선과 중간파 적외선을 검출하는 공식을 갖기 위해 양자점을 조정했다. 그런 다음 그들은 실리콘 웨이퍼 위에 두가지 양자점들을 증착했다.


이에 따른 카메라는 매우 잘 작동하며 제작하기가 훨씬 쉽다. 이것은 매우 간단한 과정이다. 비커를 사용해 용액을 주입하고, 두 번째 용액을 주입해 5 ~ 10 분을 기다리면 되는 단순한 공정으로 기능적 장치을 쉽게 제작할 수 있는 새로운 용액을 얻을 수 있다.




저렴한 적외선 카메라에 대한 많은 잠재적인 용도가 있다고 과학자들은 말했다. 자율 차량은 도로 및 주변을 스캔하기 위해 센서에 의존한다. 적외선은 생명체의 열 신호를 감지하여 안개를 통해 볼 수 있으므로 자동차 엔지니어는 이를 포함시키고 싶지만 비용은 엄청나다.


오늘 실험실에서 적외선 탐지기를 구입하려면 2 만 5 천 달러 이상이 든다. 그러나 개발된 장치는 많은 분야에서 매우 유용할 것이다. 예를 들어, 단백질은 적외선에서 신호를 내보내고, 이를 쉽게 추적할 수 있을 것이다.

ndsl.kr


edited by kcontents


But infrared cameras are much more expensive than visible-light ones; the energy of infrared light is smaller than visible light, making it harder to capture. A new breakthrough by scientists with the University of Chicago, however, may one day lead to much more cost-effective infrared cameras – which in turn could enable infrared cameras for common consumer electronics like phones, as well as sensors to help autonomous cars see their surroundings more accurately.


"Traditional methods to make infrared cameras are very expensive, both in materials and time, but this method is much faster and offers excellent performance," said postdoctoral researcher Xin Tang, the first author on a study which appeared in Nature Photonics ("Dual-band infrared imaging using stacked colloidal quantum dot photodiodes").




"That's why we're so excited about the potential commercial impact," said co-author Philippe Guyot-Sionnest, a professor of physics and chemistry.


Photos taken by researchers testing a new method to make an infrared camera that could be much less expensive to manufacture. (Image: Xin Tang et al)


Today's infrared cameras are made by successively laying down multiple layers of semiconductors--a tricky and error-prone process that makes them too expensive to go into most consumer electronics.


Guyot-Sionnest's lab instead turned to quantum dots – tiny nanoparticles just a few nanometers in size. At that scale they have odd properties that change depending on their size, which scientists can control by tuning the particle to the right size. In this case, quantum dots can be tuned to pick up wavelengths of infrared light.


      


This 'tunability' is important for cameras, because they need to pick up different parts of the infrared spectrum. "Collecting multiple wavelengths within the infrared gives you more spectral information--it's like adding color to black-and-white TV," Tang explained. "Short-wave gives you textural and chemical composition information; mid-wave gives you temperature."


They tweaked the quantum dots so that they had a formula to detect short-wave infrared and one for mid-wave infrared. Then they laid both together on top of a silicon wafer.


The resulting camera performs extremely well and is much easier to produce. "It's a very simple process," Tang said. "You take a beaker, inject a solution, inject a second solution, wait five to 10 minutes, and you have a new solution that can be easily fabricated into a functional device."


There are many potential uses for inexpensive infrared cameras, the scientists said, including autonomous vehicles, which rely on sensors to scan the road and surroundings. Infrared can detect heat signatures from living beings and see through fog or haze, so car engineers would love to include them, but the cost is prohibitive.




They would come in handy for scientists, too. "If I wanted to buy an infrared detector for my laboratory today, it would cost me $25,000 or more," Guyot-Sionnest said. "But they would be very useful in many disciplines. For example, proteins give off signals in infrared, which a biologist would love to easily track."

Source: University of Chicago

https://www.nanowerk.com/nanotechnology-news2/newsid=52314.php

kcontents

Posted by engi, conpaper engi-


Move over, Steph Curry: Six-foot 10-inch robot can hit perfect 3-pointers, free throws and rarely misses a shot - but its developers admit it CAN'T dunk or dribble!




It has been developed by car manufacturer Toyota to make long-distant shots

It uses sensors in the torso and uses motors in arms and knees to shoot the ball 

The robot is called Cue 3 measures 6 foot 10 inches tall but misses the odd shot  

Demonstration saw it nail five out of eight shots - a ratio its developers say is worse than normal  




 

3점슛 쏘는 휴머노이드 로봇 개발


  3점슛과 자유투도 쉽게 할 수 있는 6피트 10인치(2.1m) 높이의 휴머노이드 로봇이 개발됐다. 


큐이라고 불리는 이 로봇은 다양한 센서를 이용해 샷의 정확한 각도와 힘을 계산하고 모터는 매번 같은 동작을 반복한다.


가장 최근의 시범 Cue3에서 3점 라인에서 8개 중 5개를 성공시켰는데, 이는 개발자들이 주장하는 정상 성능 수준보다 훨씬 낮은 비율이다.


이 기계는 여전히 어떤 수준의 농구 선수에게도 필수적인 기술인 드리블이나 점프를 할 수 없기 때문에 유명한 장거리 슈터 스텝 커리와 같은 프로 NBA 선수들과 함께 경쟁할 수 있는 방법과는 다소 거리가 있다.


도요타의 로봇은 바스켓이 있는 곳의 3차원 이미지로 계산해 몸통에 달린 센서를 이용해 팔과 무릎 안쪽의 모터를 조절해 스윗치에 맞는 각도와 추진력을 준다.


황기철 콘페이퍼 에디터 큐레이터

Ki Cheol Hwang, conpaper editor, curator


edited by kcontents




By JOE PINKSTONE FOR MAILONLINE 

PUBLISHED: 06:30 BST, 1 April 2019 | UPDATED: 17:15 BST, 1 April 2019

A six foot 10 inch (2.1m) tall humanoid robot has been built which can shoot three-point shots and free throws with ease. 


The robot, dubbed Cue 3, uses a variety of sensors to calculate the correct angle and force of a shot and motors repeat the same motion every time.


In the most recent demonstration Cue 3 shot five for eight from the three-point line, a ratio its developers claim is far worse than its normal level of performance. 


The machine is still some way off being able to compete alongside professional NBA players such as famed long-distance shooter Steph Curry, as it is still unable to dribble or jump - essential skills for a basketball player of any level. 



 

Toyota's basketball robot Cue 3 shoots three-pointers at a gymnasium in Fuchu, Tokyo. The 207-centimetre (six-foot-10) -tall machine made five of eight three-pointer shots in a demonstration


Toyota's robot computes as a three-dimensional image where the basket is, using sensors on its torso, and adjusts motors inside its arm and knees to give the shot the right angle and propulsion for a swish.




Efforts in developing human-shaped robots underline a global shift in robotics use as manufacturers shun the existing pre-programmed mechanical arms.


Instead, they are pursuing machines able to function in the real world with people.


View Full Text

https://www.dailymail.co.uk/sciencetech/article-6872035/Toyota-robot-slam-dunk-throws-mean-three-pointer.html



kcontents

Posted by engi, conpaper engi-


Boston Dynamic reinvents one of its robots into an ostrich-like warehouse machine capable of loading pallets with boxes weighing up to 30lbs



The machine is called Handle and is the second version of the the machine 

It was initially unveiled in 2017 and had two arms but this has now been replaced 

The two-wheeled robot is now fitted with  an overhanging sucker to move boxes

It can move goods in a warehouse and load them on pallets with ease 

Maximum load weight is now roughly 30 lbs, down from the 100 lbs before 




 

보스턴 다이나믹이 개조한 유용한 창고 로봇


  보스턴 다이나믹은 자사의 로봇 중 하나를 13.5kg 박스를 싣은 팔레트를 적재할 수 있는 타조 모양의 창고 로봇으로 개조했다.


일자리를 찾아가는 인간형 로봇과 블랙 미러 스타일의 악마 개들의 세계를 소개한 보스턴 다이나믹스가 최근 창고 로봇을 공개했다. 


이 기계는 핸들이라고 불리며, 박스를 들어 올리고 팔레트을 싣는 동안 두 개의 바퀴에서 자동 밸런싱이 이루어지는 장면이 찍혀 있다.


그것은 인상적인 민첩성을 가지고 큰 창고 주위를 휘저으며, 오버헤드 흡착기를 사용하여 짐을 들어올리고 이동시킨다. 


황기철 콘페이퍼 에디터 큐레이터

Ki Cheol Hwang, conpaper editor, curator


edited by kcontents




By JOE PINKSTONE FOR MAILONLINE 

PUBLISHED: 15:19 GMT, 29 March 2019 | UPDATED: 16:27 GMT, 29 March 2019


Boston Dynamics, the firm that introduced the world to human-like robots going for a job and Black Mirror-style demon dogs, has revealed its latest creation. 


The machine is called Handle and striking footage shows the automaton balancing on two wheels while lifting boxes and loading a pallet.


It whizzes around a large warehouse with impressive agility and uses an overhead sucker to lift and move its loads. 


 

Boston Dynamics, the firm that introduced the world to human-like robots going for a job and Black Mirror-style demon dogs, has revealed its latest creation - a warehouse loading machine 


Handle was first introduced in 2017 but this version has undergone significant changes. 


The robot is larger and carries less weight - a maximum load of 30 pounds (13.5kg) - compared to its predecessor which could carry boxes weighing up to 100 pounds (45kg). 




Boston Dynamics also opted to replace the two arms of the original design with an overhead sucker.  


Boston Dynamics said: 'Handle autonomously performs mixed SKU pallet building and depalletising after initialisation and localising against the pallets. 


Handle (pictured) has been widely overshadowed by other models in the Boston Dynamics range, the Spot and Atlas which made headlines around the world last year


'The on-board vision system on Handle tracks the marked pallets for navigation and finds individual boxes for grasping and placing.' 


View Full Text

https://www.dailymail.co.uk/sciencetech/article-6864923/Boston-Dynamic-makes-robots-capable-loading-pallets-balancing-two-wheels.html


kcontents

Posted by engi, conpaper engi-