Original English version: http://web.cs.iastate.edu/~jia/research/research-statement.html
Yan-Bin Jia
Min undersøkelse av robotferdighet har fokusert på å søke en koordinert forståelse av beregnings-og kontrollproblemer i manipulasjonsoppgaver. Et mål med denne studien er dynamisk innhenting av geometrisk informasjon som form og positur, og mekanisk informasjon som bevegelse og kraft. Et annet mål er nøye prosjektering av ovennevnte informasjon for å få roboten til å stille ut ferdigheter under utførelsen av fysiske oppgaver. Gjennom innsats balansert mellom teoretisk utredning og eksperimentell demonstrasjon, håper jeg å få inngående kunnskap om handling og intelligens når de interagerer med hverandre. Fra et applikasjonssynspunkt vil slik kunnskap ha løftet om å påvirke ikke bare industriell automatisering, men også personlige roboter i fremtiden.
For at roboten til slutt skal kunne demonstrere ferdigheter som nærmer seg det menneskelige nivået, må man oppnå tett integrering av sensing i handling for å bane vei for et rammeverk hvor ferdigheter til målrettet objekthåndtering kan formuleres, analyseres og automatiseres. For å demonstrere den ovennevnte filosofien, har jeg primært brukt en kilde til informasjon som er allestedsnærværende i den fysiske verden – kontakt mellom to eller flere instanser. Dette kan være stedet eller kontakten for kontakten eller begge deler. Jeg er spesielt interessert i kontakt mellom en robothånd (uttrykket “robothånd” refererer til en manipulator generelt, uansett om den er formet lik den menneskelige hånden eller ikke) og et objekt som blir manipulert av hånden.
Under støtten fra en NSF CAREER Tildele (2002-2007) har min undersøkelse så langt sentrert rundt lokalisering, anerkjennelse, gjenoppbygging, samt å ta tak i former (spesielt buede former) som jeg synes er grunnleggende for å oppnå dyktige og intelligent objekthåndtering.
I nærmeste fremtid (frem til 2007) vil hovedfokuset mitt være å utdype undersøkelsen ovenfor, med en oppmerksomhetsforskyvning til 3D buede former. Flere detaljer i denne forskningslinjen er beskrevet til slutt i del 1 og 2 nedenfor.
I løpet av den nærmeste fremtiden vil forskningen grenen til haptics, fingerferdige manipulasjoner og menneske-robot interaksjon. En plan for denne innsatsen vil følge i del 5.
1. Taktil formgjenkjenning ved bruk av differensial invarianter.
Ph.D. studenten Rinat Ibrayev og jeg har studert hvordan vi kan gjenkjenne former avgrenset av lavgrad polynomkurver ved bruk av minimale taktile data. Problemet generaliserer tradisjonell modellbasert gjenkjennelse i den forstand at hver modell nå ikke bare er en spesifikk form, men snarere en familie med et kontinuum av parametriske former.
Differensial-og semidifferensial invarianter har fordelen av å kreve lokale data (som er gitt av berøringssensorer). De invariantene vi har avledet er uavhengige av ikke bare oversettelse og rotasjon (som invarianter brukt i datasyn), men også grensepunkter hvor de blir evaluert. I teorien trengs det høyst tre slike punkter for kvadratiske kurver og kubiske splinekurver.
Disse invariantene lar oss diskriminere en familie av kurver fra en annen, og bestemme den virkelige formen ut fra den anerkjente familien. Videre kan kontaktlokasjoner hvor de taktile data ble oppnådd, også estimeres, og følgelig blir den relative plasseringen av fingeren på formen kjent. Derfor har den invariantbaserte tilnærmingen potensialet til å forene formgjenkjenning, gjenoppretting og lokalisering pent som den menneskelige hånden gjør ubevisst hver dag.
Vi har utført foreløpige eksperimenter med reelle taktile data for å støtte gyldigheten av denne tilnærmingen. En stabil metode er beregnet for å estimere krumning og derivat derav.
Forarbeid om dette emnet ble rapportert på IEEE International Conference on Robotics and Automation (ICRA) i 2004. En mer fullstendig versjon (med noen eksperimentelle resultater) ble presentert på International Workshop on Algorithmic Foundations of Robotics (WAFR) i 2004, og er valgt ut til en spesiell utgave av Internasjonalt tidsskrift for robotikkforskning (IJRR) i 2005.
Fremtidige utvidelser: Vi vil utvide utformingen av invarianter til mer generelle kurver som brukes i applikasjoner, og konstruere et gjenkjennelsestre for 2D buede former som kan søkes med en spørring generert over taktile data. Deretter vil vi gå videre for å undersøke invariant-basert gjenkjennelse av buede former i 3D (som er et potensielt doktorgradsavhandlingstema for Rinat).
2. Deler lokalisering og rekonstruksjon med berøringssensorer
Inspirert av den menneskelige håndens evne til å bestemme dens plassering på et kjent objekt gjennom fingersporing og famling, har jeg demonstrert hvordan jeg kan lokalisere en 2D buet form ved å rulle en kjeve utstyrt med en berøringssensor. Den målbare informasjonen inkluderer hvor mye kjeven har snudd og hvor langt den har beveget seg på formen.
Jeg designet en numerisk algoritme som beregner konfigurasjonen av kjeven etter rullende bevegelse. Algoritmen er fullført og mengden numerisk beregning er asymptotisk optimal. Lokalisering ble demonstrert gjennom eksperimenter på en robot. I stedet for å bruke industrielle kraft/momentsensorer (som er dyre og noen ganger overdrevne for laboratorieeksperimenter), implementerte jeg en 3-akset kraft/moment sensor som kan oppdage kontaktsted progressiv resultater om lokaliseringsarbeidet ble presentert på ICRA 2000 og IEEE/RSJ Internasjonale konferanser om intelligente roboter og systemer (IROS) 2001 og 2003. Et sammendrag er betinget akseptert for IEEE Transaksjoner med robotikk.
I mellomtiden, Ph.D. student Liangchuan Mi har vist hvordan en enkel berøringssensor som en styrespak kan brukes til å rekonstruere plane buede former med knapt tap av formnøyaktighet. Til tross for joystickens begrensede kraftmåling, kan den generere presise kontaktmålinger ved å dra nytte av en Adept-robotens høye posisjonsnøyaktighet. Liangchuan kom med en veldig effektiv posisjonskontrollstrategi som forutsier bevegelsesretningen i neste trinn basert på gjeldende kraftlesing og en polynomtilpasning til lokal sporingshistorie. Dette arbeidet vil bli presentert på IROS 2004 i Japan.
Fremtidige utvidelser: Lokalisering av et objekt i forhold til hånden ved berøring vil endre paradigmet for å ta tak i robotikk der sensing for øyeblikket ofte blir utført på forhånd av et synssystem eller av sensorer løsrevet fra hånden. Videre utredning om tolkningen av “følelse” ved berøring, tror jeg, vil muliggjøre en tett integrasjon mellom sensing og kontroll. Neste trinn vil være å gå videre til å studere fange strategier som er tilbakemeldingsdrevne og mer robuste mot feil og usikkerheter. I mellomtiden vil formsporingsarbeidet bli utvidet til gjenoppbygging av 3D-overflater, noe jeg håper Liangchuan vil undersøke med meg i sin doktorgrad avhandlingsarbeid.
3. Kurveberegning og finne antipodale grep.
Å finne geometriske understrukturer relatert til kurver (for eksempel vanlige tangenter og antipodale punkter) kan være formulert som tradisjonell ikke-lineær programmering. Men en slik løsning vil verken være komplett eller effektiv på grunn av den iboende lokale karakteren av ikke-lineære programmeringsmetoder. Jeg har demonstrert at beregningseffektivitet og (nesten) fullstendighet kan oppnås ved to dimensjoner ved å utnytte både global og differensial geometri.
Jeg introduserer et kurvebehandlingsskjema som dissekerer en kurve i monotone segmenter (basert på noen oppgavespesifikke kriterier) og deretter parer marsjerer med numerisk halvering på disse segmentene for å søke etter de ønskede understrukturene. For å demonstrere denne ideen presenterer jeg en effektiv algoritme som beregner opp til numerisk oppløsning alle par antipodale punkter på en plan buet form. Disse punktene brukes for å oppnå stabile grep om formen. Algoritmen benytter seg av ny innsikt i differensialgeometrien på to antipodale punkter, og benytter en subroutine for å konstruere alle vanlige tangenter i to kurvesegmenter. Den numeriske konvergenshastigheten og kjøretid for algoritmen er bestemt.
Arbeidet representerer et fremskritt på beregning som involverer parametriske kurver, og gir også en veldig tilfredsstillende løsning på et av de velkjente problemene innen robotgrep. Det er beskrevet i et 31-siders IJRR-papir i 2004.
I tillegg har jeg også brukt ovennevnte kurveberegningsskjema for å konstruere konvekse skrog for lukkede parametriske plankurver. Dette arbeidet er oppsummert i en 51-siders innlevering til Beregningsgeometri: teori og applikasjoner.
4. Geometrisk og dynamisk robot sensing (doktorgradsavhandling)
Oppgavearbeidet mitt undersøkte geometriske og mekaniske sansestrategier for gjenstander med kjente former (som inkluderer industrielle deler og hverdags skrivebordsgjenstander). Jeg introduserte først to strategier som bruker enkle geometriske begrensninger for å enten immobilisere objektet eller for å skille dets virkelige positur fra et endelig antall tilsynelatende positurer. Problemer med kompleksitet vurderes. Så utviklet jeg en sensingstrategi kalt “positur og bevegelse fra kontakt.” Ved å anvende ikke-lineær observerbarhetsteori, demonstrerte jeg at essensiell oppgaveinformasjon ofte er skjult i mekaniske interaksjoner, og viste hvordan denne informasjonen kan avsløres på riktig måte. Ikke-lineære observatører ble designet for formålet.
Oppgavearbeidet ble utført ved Carnegie Mellon universitet. De fleste resultatene ble publisert i to IJRR-papirer (henholdsvis 28 sider og 25 sider) i 1996 og 1999. Et uavhengig resultat (om den lokale observerbarheten av et rullende 3D-objekt på en håndflate gjennomsyret av taktile sensorer) ble presentert på WAFR i 1998.
5. Framtidig forskningsplan
I tillegg til å fortsette arbeidet med taktil formgjenkjenning og gjenoppbygging som beskrevet i del 1 og 2, vil min fremtidige forskningsagenda også omfatte haptics, fingerferdige manipulasjoner og menneske-robot interaksjon.
Et av de åpne problemene i haptikk er å håndtere responsforsinkelser som ofte forårsaker ustabiliteten til et haptisk system. Dette skyldes først og fremst mangelen på en pålitelig modell av det fysiske miljøet. I mellomtiden må mye undersøkes i haptisk gjengivelse av bruk av målinger i virkelige miljøer for å konstruere modeller av fysiske former, stivhet, tekstur, og så videre. For å fremskynde responsen kan taktile målinger kombineres med en priori kunnskap for å konstruere en grov modell av det (lokale) miljøet. En slik modell gir informasjon som form, stivhet osv. Den vil deretter bli foredlet under samspillet mellom tjeneren og miljøet under veiledning av brukeren. Med flere brukere som samhandler med det samme miljøet, er fusjon av taktile data og baneplanlegging også blant interessante forskningsemner.
I fingerferdige manipulasjoner vil jeg takle problemet med å manipulere et objekt mens jeg utforsker dets geometriske og fysiske egenskaper, med eller uten syn. Bruksområder inkluderer oppgaver med høy grad av kompleksitet, for eksempel robot-og robotassistert kirurgi, romutforskning og husholdningsrobotikk (oppgaver fra å erstatte en lyspære til å rydde oppvasken på middagsbordet). Problemet er et representativt domene der flere forskningsområder innen robotikk samles: dynamikk og kontroll av hånden; objektets observerbarhet; å ta tak under dynamiske begrensninger; planlegging av manipulasjonsbane; utvinning/estimering av form, teksturer, stivhet osv.; og sensorfusjon (f.eks. i nærvær av flere berøringssensorer eller et synssystem). Eksisterende arbeid har stort sett konsentrert seg om et av de ovennevnte områdene, noen ganger under begrensede forutsetninger, slik at resultatene ikke er generelle nok til å kunne brukes i reelle oppgaver med rimelige grader av kompleksitet. Det er klart det er nødvendig med innsats for å forstå deres roller og interaksjoner og for å karakterisere resultatene i et samlet rammeverk for at det skal være et stort gjennombrudd i feltet. Slik forståelse og dens eksperimentelle bekreftelse vil være nødvendig før bruk av roboter med generelle formål. Jeg er klar over at denne forskningen kan vise seg å være en langsiktig vitenskapelig innsats, men dedikert innsats vil definitivt være verdt.
Et annet interessant område jeg håper å utforske fremover er interaksjon mellom mennesker og roboter. Hvordan få roboten til å lære seg manipulasjonsevner når den blir coachet av et menneske? Kan en robot og et menneske fysisk delta i et spill som poker slik to mennesker gjør (omgangskort, blandekort osv.)? Læring forventes å spille en viktig rolle, bortsett fra at ferdighetene som skal forbedres er i form av kontrollalgoritmer som hovedsakelig omhandler mekanikk. Basert på samhandlingene, skal den menneskelige treneren alltid kunne akselerere “lærings”-prosessen ved å omprogrammere raffinert kunnskap til roboten.
Jeg ser for meg at laboratoriet skal vokse ut til en forskningsgruppe med minst fem doktorgradsstudenter og et par forskningsassistenter i løpet av de neste årene. Tre eller fire år senere forventes gruppen å gi minst en doktorgrad. annethvert år. Jeg vil jobbe hardt for å opprettholde flyten av doktorgradsstudenter og den intellektuelle effekten av laboratoriet. Tilstrekkelig tilskuddsstøtte og en aggressiv rekrutteringsstrategi for studenter er begge avgjørende for å nå de ovennevnte målene. Med denne innsatsen vil jeg forsøke å bygge laboratoriet til et synlig robotikksted sterkt orientert mot geometri, berøring og robotferdighet.