Artikkel

1 petabit med data for en hjertediagnose

1 petabit med data for en hjertediagnose

Ultralyd apikal 4d

I Norge utvikles noen av de mest avanserte 3D ultralydscannerne i verden. Det gjøres av GEs avdeling for kardiologi ultralyd, GE Vingmed Ultrasound. I medisinsk diagnose og ultralyd-sammenheng er det ikke så vanlig å tenke at disse scannerne genererer massive mengder med data. Men for meg som er på et informatikk-institutt er jo dette høyst relevant.

Hva genererer egentlig en moderne 3D ultralydscanner av rådata? Den har opp mot tre tusen sensorelementer som hvert genererer noe slikt som 8 bit med data ved en rate på 40 MHz. Det blir

3000 · 8 · 40 Mbit/s ≈ 1 terabit pr sekund.

 

En undersøkelse av en pasient tar kanskje noe slikt som 10 minutter så da skulle det bli 600 terabit med data. La oss si at det er en ekstra komplisert undersøkelse som tar nesten dobbelt så lang tid, så kan jeg stå inne for overskriften jeg har satt her også (Se her hvis du som meg er litt usikker på hva tera og peta betyr).

Praksis har lenge vært at diagnosen gjøres i sann tid så alt skal prosesseres der og da, altså i løpet av mindre enn tjue minutter. Dette er utenfor rekkevidde for det meste som er av prosessorer, så det første som gjøres er å bruke en analog prosessor som får dataraten ned til ca 5%, det samme som en 2D scanner. Da kommer man ned på 50 megabit pr sekund, noe som lar seg prosessere digitalt. Men helt siden jeg var med på å utvikle en av de første digitale ultralydscannerne tidlig på 90-tallet har det bare vært spesialutviklede kretser som har kunnet svelge unna selv denne datastrømmen.

Nå begynner de første scannerne å komme som er basert på generelle prosessorer. Og da er tiden moden for at vi og andre kan jobbe med å utvikle mer kompliserte og forhåpentligvis mer nøyaktige avbildningsalgoritmer som kanskje krever 100 ganger mer prosessorkraft, adaptive metoder for avbildning. Til uttesting av slike metoder har vi bl.a. brukt Condor, et system for å kjøre i parallell på hundrevis av våre arbeidsstasjoner. Det er også spennende for vårt miljø å se på nye måter for beregning bl.a. basert på prosessoren i grafikkort (GPU).

Det er en lov jeg har observert så lenge jeg har holdt på med beregninger: Man har alltid behov for mer beregningskraft enn det som til en hver tid finnes tilgjengelig.

Skriv ny kommentar

Verifiser deg (din epost-adresse vil ikke bli vist offentlig)