Godssecret's Weblog

The future of space exploration- Droids (Robots)
June 2, 2009, 7:45 am
Filed under: Uncategorized | Tags: ,



robonautThis robot  is called Robonaut. It is a humanoid robot designed by the Robot Systems Technology Branch at NASA’s JSC  in a collaborative effort with DARPA. Robonaut’s creators designed it to have dexterity, range of motion and task capabilities roughly equivalent to that of an astronaut in a space suit. Space flight hardware has been designed for servicing by astronauts for the last fifty years. It makes sense that robots would gradually pick up these tasks over time rather than suddenly replacing astronauts. The set of tools used by astronauts during space walks was the initial design consideration for the system. This drove  the development of Robonaut’s dexterous five-fingered hand and human-scale arm. The robot’s mix of sensors includes thermal, position, tactile, force and torque , with over 150 sensors per arm. The control system for Robonaut includes an onboard CPU with miniature data acquisition and power management in an environmentally hardened body. He’s also got a nifty thermal suit to protect him from the wild temperature swings in space.


All the best sci-fi films have them, and they may become our future automated space explorers. Currently, one of the biggest drawbacks for using robots in space is that they depend on human input (i.e. commands need to be sent for every robotic arm motion and every rover wheel rotation). This means that, especially with missions operating far from Earth (such as the Phoenix Mars Lander and Mars Expedition Rovers), very simple and mundane tasks can take hours or even days to complete. One of the main reasons supporting manned exploration of space is that very complex science can be carried out very rapidly (after all, astronauts are human and many robotic operations that take weeks can be completed in seconds). But say if our robotic explorers had a high degree of automation? Say if they could sever the requirement for human input and carry out tasks with intelligent reasoning? As robotic and computer technology increases in sophistication, one Caltech scientist believes space exploration by artificial intelligence is closer than we think…

Star Wars: The Empire Strikes Back was so unfair, Darth Vader and his ilk had access to intelligent space exploration droids that could fly around the galaxy, land on alien worlds and automatically seek out the rebels on Hoth (directing the battle fleet to the icy moon, creating one of the most famous and atmospheric sci-fi battle sequences in movie history. In my opinion at least). But say if we were able to build such “droids” (in fact, droid is a good description of these space explorers, defined as ‘self-aware robots’) that could be sent out into space to explore and report back to mission control without depending on instruction from Earth?

Before the year 2020, scientists are expected to launch intelligent space robots that will venture out to explore the universe for us says Wolfgang Fink, physicist and researcher at Caltech.

“Robotic exploration probably will always be the trail blazer for human exploration of far space,” says Wolfgang Fink, physicist and researcher at Caltech. “We haven’t yet landed a human being on Mars but we have a robot there now. In that sense, it’s much easier to send a robotic explorer. When you can take the human out of the loop, that is becoming very exciting.”

While Fink is encouraged by the progress made by missions such as the Mars Phoenix and its robotic arm, he emphasizes that the link between human and robot needs to be eliminated, allowing robots to make their own decisions on what science needs to be carried out. In reference to the Phoenix’s robotic arm he said, “The arms are the tools, but it’s about the intent to move the arms. That’s what we’re after. To have the robot know that something there is interesting and that’s where it needs to go and then to go get a sample from it. That’s what we’ve after. You want to get rid of the joystick, in other words. You want the system to take control of itself and then basically use its own tools to explore.”

The physicist said he envisions a time when humans send out intelligent probes to explore the far reaches of the universe and send information back to Earth – without having to send people on excruciatingly long and dangerous space missions.

“In the old Star Wars movies, especially in the Empire Strikes Back, the empire was sending out probes or floating robots,” said Fink. “Those were ideal robotic explorers because they floated over planets and had sensors and communication capabilities. Once you venture out to other planets, you need something that can operate on its own. You can’t monitor and supervise every single step. You want to deploy something that, on its own, can start a reconnaissance of the area and report back.”

Wolfgang Fink  is now working on developing robotic systems to analyze Geochemical Biosignatures For Life Detection Derived From Layered Microbial Interfaces . Development and implementation of a computer-automated system for near threshold central visual field acquisition in establishing 3-D displays of (central) visual fields (hill-of-vision). The patient will indicate the visible perimeter of vision in a variety of contrast presentations. This will not only reveal relative as well as absolute scotomas but permit the calculation of the slope of the depression. Ray tracing with a computer allows realistic simulation of optical properties of the human eye. Patterns of point sources are used as objects. The path of light rays is calculated between the point source and the retina for a Gullstrand exact schematic eye model with improved parameters; the normal eye model has a resolution limit close to the natural resolution limit of the human eye. The image formed on the retina is projected back to a screen at the distance of the object so as to simulate image interpretation by the brain. Refractive errors are modeled by a change in eye parameters and corrected by eyeglasses or/and contact lenses or by an artificial intraocular lens. For optic correction the parameters of seeing aids can be fitted automatically by a least-squares routine. Also a AGFA: (Airborne) Automated Geologic Field Analyzer.

The key attribute robots need to possess is the ability to recognize something of interest, such as a rock or crater, something that a human mind would see as a scientific opportunity. At Caltech, Fink and others are working on programs that use images for robots to distinguish colors, textures, shapes and obstacles. Once artificial intelligence has the ability to do this, if the programming is complex enough, the robot can notice something that is out of place, or a region worth investigating (such as a strangely coloured patch of Mars regolith that a Mars robot will decide to dig into).

The researchers also are working on a wish list of sorts for the spacecraft. The list would include things that NASA and university scientists would like the robot to investigate. “It’s very difficult to teach a spacecraft,” said Fink. “When a geologist goes into the field, they can tell you if they see something that sparks their interest. Based on that interest, it triggers more refined research. But the problem is if you encounter something that scientists had not foreseen, then you run the risk of not detecting it We’ll equip it with a database and a wish list, along with the ability to flag an anomaly.”

Fink said NASA has shown some interest in their work. And that makes sense since NASA is planning an unmanned mission to Titan, Saturn’s largest moon, around 2017. The CalTech physicist explained that an orbiter would most likely release a balloon-type vehicle that would float above the surface of the moon and send its findings back to Earth.

“It takes more than hour to send communications back and forth to a space probe at Saturn or Titan,” said Fink. “It is not a problem so much if you are dealing with a Lander, which is immobile, or when you’re dealing with a rover which is not moving too fast. It becomes a significant problem if you deploy a balloon or air ship on Titan, let’s say. They are floating so you need a much quicker reaction time. If there’s a mountain or hill coming up, you need to make a decision right there and then.

software is being tested and Caltech scientists are beginning to try it out on a rover’s navigation functions. However, the robotic decision-making is very basic presently, but NASA has taken a keen interest in Fink’s work. For example, in 2017 NASA intends to send a robotic mission to Titan, one of Saturn‘s moons. In all likelihood the moon will be explored by a balloon-type vehicle. However, it would be impractical for such a vehicle to depend on commands being sent from Earth (as it would take more than an hour for communications to transmit over that distance), so there would need to be a certain degree of automation built into the craft so fast decisions can be made in a dynamic environment such as Titan’s atmosphere.