Przelaskowski A. - Kompresja danych. Podstawy, metody bezstratne, kodery obrazów.pdf

(20742 KB) Pobierz
3
Wstęp
XXI wieku to przede wszystkim era informacji,
którą
charaktery-
zuje intensywny rozwój
społeczeństwa
informacyjnego,
przekształcającego się
stopniowo w
społeczeństwo
szeroko
dostępnej
wiedzy (przetwarzanie i tworzenie
wiedzy staje
się podstawą
jego rozwoju). Wobec
dużej
i stale
rosnącej zwiększającej
się
roli Internetu
można
obecnie
mówić również
o zjawisku
społeczeństwa
sieciowego.
Początek
Cena chwili
Znakiem czasu jest nadmiar informacji.
Jesteśmy
zalewani informacjami
różnej
jako-
które
dotyczą każdej,
niemal najdrobniejszej dziedziny ludzkiego
życia).
Coraz
bardziej
pożądane stają się narzędzia
nie tyle
zwiększające dostęp,
ile raczej
uła­
twiające skuteczną selekcję
informacji. Szybki
dostęp
do istotnych informacji, efek-
tywne przetwarzanie informacji i wyszuldwanie wiarygodnych
źródeł
wiedzy staje
się
składnikiem decydującym
o sukcesie wszelkiej
działalności
biznesowo-gospodarczej,
organizacyjnej,
społecznej, „gorącym"
towarem na
sprzedaż.
Powszechnym sposobem na
życie współczesnego człowieka, żyjącego
w
ciągłym
po-
śpiechu,
staje
się oszczędzanie każdej
chwili (zobacz
pozycję
T. H. Eriksen,
„Tyrania
chwili",
PIW, 2003),
mające
znaczenie
zwłaszcza
ekonomiczne oraz eksploatacyjne
(użytkowe).
Poszanowanie czasu
przekłada się
na wzrost
ilości
informacji
dostępnej
(przekazywanej) w jednostce czasu w warunkach, jakimi dysponuje konkretny od-
biorca
(określone
ramy czasowe,
sprzętowe,
finansowe).
Oszczędność
czasu odbiorcy
informacji
można uzyskać
przede wszystkim poprzez
dbałość
o
jakość
informacji, tj.
selekcję
jedynie tych danych, które
istotne dla
użytkownika,
oraz poprzez zapew-
nienie minimalnej
długości
reprezentacji przekazywanych danych.
Rodzą się więc
pytania o
naturę
informacji, jak
ją opisać ilościowo,
jak lepiej
rozumieć
jej sens,
wybierać, przetwarzać, porównywać, klasyfikować.
Od strony technicznej wy-
maga to konstrukcji
narzędzi
i systemów zorientowanych na
cyfrową reprezentację
informacji, najlepiej
tworzoną
w sposób upakowany,
oszczędny,
który
ułatwia
jej ana-
lizę,
przechowanie i przekazanie. Celem kompresji danych jest uzyskanie optymalnego
sposobu reprezentowania informacji. Kryteria optymalizacji
zależą
od
zastosowań.
ści,
Kompresja
oszczędza
czas
Kompresja zmniejsza
przesyłanych
zbiorów i strumieni danych, daje szybszy
dostęp
do informacji w bazach danych, a
także porządkuje
i
wpływa
na
jakość
dostarczanej
informacji.
Rośnie ilość
informacji zapisywanej na
nośniku
o danej
pojemności, moż­
na
łatwiej
(szybciej)
tę informację przetwarzać, porównywać
czy
indeksować. Rośnie
ilość
informacji dostarczonej w jednostce czasu, jest ona bardziej
użytecznie
reprezen-
towana, bez
zbędnej, zabierającej
czas
nadmiarowości.
Efektywna kompresja dociera
do istoty informacji,
także
w sensie znaczeniowym, jest
więc narzędziem
niezwykle
przydatnym, niekiedy
wręcz
koniecznym, jest jednym ze sposobów na
zwiększenie
„prędkości świata"
(lub
też
lepsze wykorzystanie
uciekającego
czasu).
Rozwój technologiczny w zakresie doskonalenia
jakości
i
zwiększania pojemności
no-
śników
informacji oraz
zwiększania przepustowości
sieci komputerowych (lokalnych
i globalnych) nie
nadąża
za lawinowym wzrostem liczby danych cyfrowych
wymagają­
cych przetworzenia, analizy, archiwizacji i
przesłania
w danym
środowisku
sieciowym.
Typowe skriningowe badanie mammograficzne to dwa obrazy
każdej
z piersi wyko-
4
nane w projekcjach kranio-kaudalnej i
skośnej. Każdy
z obrazów to
średnio około
40 MB (megabajtów) danych, co daje 4 x 40 MB=l60 MB danych z jednego ba-
dania.
Płyta
CD o
pojemności
700 MB
może pomieścić
dane cyfrowe jedynie z 4
takich
badań.
Czas
przesłania
pojedynczego mammogramu
łączem
o przepustowo-
ści
1 Mbit to 320 sekund, czyli 5 minut i 20 sekund, a
całego
badania
21 minut
i 20 sekund.
Jeśli
dziennie wykonuje
się
typowo
około
30
badań
(czas
całego
badania
mammografem cyfrowym wynosi
najwyżej
20 minut), to istnieje potrzeba archiwiza-
cji 30x160 MB=4,8 GB danych dziennie z jednego
pracującego
mammografu
(cała
płyta
DVD-5, jednostronna, jednowarstwowa). Dane te trzeba
przechowywać
przez
okres przynajmniej 10 lat.
Pascal
pisząc
list do przyjaciela
wspomniał, że
„nie ma czasu, aby
napisać
krócej" -
pisze
więc
jak leci.
Przepraszał, że zabrakło
mu czasu, by
zaoszczędzić
czas adresata.
Opracowanie
oszczędzających
czas metod kompresji jest
niełatwe,
wymaga rozwagi,
cierpliwej analizy
właściwości
danych, wielu godzin
poszukiwań
efektywnych modeli
źródeł
informacji czy algorytmicznych metod formowania zakodowanej w
ciąg
bitów
postaci informacji. Przez ostatnie 10 lat, od czasu opracowania efektywnych kode-
rów CALIC i JPEG-LS, nie
nastąpił żaden przełom, jakościowy postęp
w dziedzinie
odwracalnej kompresji obrazów. Setki
badań, dziesiątki artykułów,
konferencji, ty-
siące
godzin mozolnej pracy wielu badaczy nie
przełożyło się
na wzrost
efektywności
koderów obrazów.
Kompresja obrazów
Technologiczne doskonalenie systemów rozpowszechniania informacji wymaga stoso-
wania efektywnych metod kompresji danych, w tym koderów obrazów. Obecnie nie-
bagatelną rolę
odgrywa przekazywanie informacji za
pomocą
obrazu
przyk_ładem
niech
będzie chociażby
dominacja systemów operacyjnych z graficznym interfejsem
użytkownika
typu
Windows.
Nowe technologie akwizycji obrazów, poprawa
zdolności
rozdzielczej systemów obrazowania, redukcja szumu i
zwiększanie
dynamiki
sygnału
użytecznego wymuszają
operowanie coraz
większymi
zbiorami danych obrazowych.
Szybko
rosnąca
liczba obrazów cyfrowych
przenoszących informację
w coraz
większej
gamie
zastosowań,
takich jak fotografia cyfrowa, kamery cyfrowe na
użytek
domo-
wy, obrazy satelitarne wykorzystywane w meteorologii, kartografii czy urbanistyce,
systemy obrazowania medycznego i biologicznego itd., wymaga
użycia
efektywnych
metod gromadzenia, indeksowania,
przeglądania
i wymiany tej informacji.
Bezstratna kompresja obrazów polega na tworzeniu
możliwie oszczędnej
ich reprezen-
tacji,
dającej się odtworzyć
do postaci oryginalnej
(wejściowej
dla kodera obrazów)
z
dokładnością
do pojedynczego bitu. Jest
więc
bezpieczna,
niezwiązana
z
obawą
utraty
części
informacji, co jest szczególnie istotne, np. w zastosowaniach medycz-
nych. Nie bez przyczyny nie ma
dotąd
powszechnej zgody
środowisk
lekarskich na
stosowanie kompresji stratnej w obrazowaniu medycznym. Obawy budzi wiarygod-
ność
diagnostyczna rekonstruowanych obrazów oraz sposób ustalenia optymalnych
parametrów procesu kompresji. Nie przekonuje wiele prac
dowodzących
nawet po-
prawy
jakości
obrazów medycznych po kompresji, brakuje jasnych
reguł
prawnych.
Sformułowanie
obiektywnych kryteriów optymalizacji algorytmów kompresji strat-
nej jest nadal
sprawą otwartą, choć
jest przedmiotem licznych
badań
od wielu lat.
\Vymaga szerszego spojrzenia na
pojęcie
informacji przede wszystkim w warstwie
znaczeniowej. Kompresja bezstratna pozostaje
więc
bezpiecznym i najbardziej po-
wszechnym sposobem reprezentowania obrazów medycznych. Podobne
dążenia
do
zachowania
źródłowej
postaci obrazów w procesie kompresji
występują
w zastosowa-
niach cyfrowej telewizji, kina domowego, grafice komputerowej, przy wykorzystaniu
niektórych
zdjęć
satelitarnych itd.
Podstawowym elementem wszystkich
użytecznych
metod kompresji
efektywne al-
gorytmy kodowania binarnego,
wykorzystujące
wiarygodne modele
zależności
danych
przeznaczonych do kodowania, tj. danych obrazowych lub danych reprezentacji po-
średniej,
uzyskanych po
wstępnym
przetworzeniu danych
źródłowych
(bardziej po-
datnych na kodowanie).
Książka
Cechy kompresji danych
Kompresja staje
się
zagadnieniem coraz bardziej powszechnym, a stosowane
rozwią­
zania
wpływają
na
kształt współczesnych
systemów teleinformatycznych. Skuteczne
metody kompresji
wychodzą
poza proste algorytmy kodowania i redukcji nadmiaro-
wości. Muszą uwzględniać specyfikę zastosowań, chociażby
poprzez elastyczne dosto-
sowanie do
zróżnicowanych wymagań użytkownika,
warunków transmisji
(odporność
na
błędy),
cech systemu informatycznego.
Zawierają
zabezpieczenia przed
kradzieżą
danych,
dają możliwość
ukrycia informacji przed
osobą niepowołaną,
czy
też róż­
nego
uporządkowania
przekazywanej (odtwarzanej) informacji poprzez dostosowanie
do interaktywnych wskazówek odbiorcy, zmiennego kryterium optymalizacji postaci
kodu czy
też
poprzez
uwzględnienie wymagań
strumieniowania.
metod kompresji jest
więc elastyczność, zdolność
doboru
ilości, jakości
i postaci informacji wynikowej
(wyjściowej)
w
zależności
od
definiowanych potrzeb odbiorcy. Algorytm tworzenia zakodowanej reprezentacji po-
winien
realizować
takie zadania przy
możliwie
skromnych kosztach (obliczeniowych
i
sprzętowych).
Opracowanie skutecznego algorytmu kodowania wymaga
więc
zwykle
optymalizacji wielokryterialnej, wykorzystania mechanizmów adaptacji do lokalnych
cech
sygnału
(zbioru danych), a czasami nawet interakcji
zmieniających procedurę
kompresji w czasie rzeczywistym.
Algorytmy kompresji
wykorzystują
oprócz teoretycznych podstaw informacji, mo-
deli
źródeł
informacji
także
kody, czyli metody tworzenia efektywnej reprezentacji
danych.
Przedstawiając
to obrazowo:
jeśli
system wyrnfa.ny (przekazywania) infor-
macji jest nerwem, krwioobiegiem
współczesnego społeczeństwa,
to kompresja jest
sposobem na
koncentrację
i wzmocnienie przekazywanych
bodźców,
a wskutek te-
go na lepsze
odżywianie całego
organizmu. Jest jak technologiczne lekarstwo nie
tylko
dające szansę
normalnego
życia,
ale
stwarzające również możliwości
dalszego
rozwoju.
Zasadniczą cechą współczesnych
Opracowanie to jest
próbą całościowego ujęcia
zagadnienia kompresji obrazów, z wy-
korzystaniem fundamentalnych koncepcji z teorii informacji rozbudowanych o wybra-
ne aspekty semantyczne,
zależne
od rodzaju informacji, jak i od metody wiarygod-
nego modelowania danych obrazowych. Ponadto
książka
daje teoretyczne podstawy
metod binarnego kodowania, które
szeroko wykorzystywane we
współczesnych
standardach kompresji, stosowanych formatach zapisu,
przesyłania
i prezentacji ob-
razów. Dla poszczególnych metod podana jest ogólna zasada kompresji, czyli okre-
ślona reguła
modelowania danych i konstruowania kodu z wykorzystaniem prostych
zależności
matematycznych. Z
reguły
tej wynika konkretny algorytm
umożliwiający
opracowanie w praktyce koderów obrazów. Podane algorytmy wzbogacono niekie-
dy
przykładami
gotowych realizacji w
określonym języku
programowania. Istotna
jest
też
analiza
właściwości
poszczególnych koderów, ich
efektywności
dla
różnego
6
7
rodzaju danych. W celu lepszego zrozumienia bardziej
złożonych pojęć
i metod za-
mieszczono formalne opisy (wybrane twierdzenia, dowody,
własności)
oraz
przykłady,
które
ukazują efektywność
i
użyteczność
omawianych
rozwiązań,
jak
też wyjaśniają
ich
działanie.
informacji na
niższym
poziomie, bez
pośrednich
modeli
zależności wartości sąsiednich
pikseli
źródłowych.
Uproszczenia
prowadzą
do zmian w analizie informacji: zamiast obiektów piksele, zamiast pikseli -
rozkłady
map bitowych itp. Stosuje
się
modelowanie lokalnych kontekstów wybranych
przestrzeni bitowych niekoniecznie skorelowanych z
obrazową interpretacją
danych.
Szacowanie
zależności
danych traktowanych bardziej elementarnie (z uproszczonym
alfabetem
źródła)
daje bardziej uniwersalne
rozwiązania.
Innymi
słowy
w koderach
odwracalnych coraz
większą rolę odgrywają
uniwersalne metody kodowania danych,
wykorzystujące
przede wszystkim statystyczne metody modelowania kontekstu w ko-
dowaniu binarnym (zwykle arytmetycznym).
Potwierdzają
to przytoczone w ostat-
nim rozdziale rezultaty eksperymentów
własnych
i innych. Dlatego
też
uznano za
celowe wnikliwe przedstawienie najbardziej
użytecznych
metod kompresji danych,
które
mają
znaczenie uniwersalne i
wykorzystywane w koderach obrazów. Poka-
zano to w
podsumowującym
rozdziale siódmym. ·wydaje
się, że
sukces najbardziej
użytecznych dziś rozwiązań
zapewnia doskonalenie statystycznych, adaptacyjnych
metod modelowania danych w szybkich koderach odpowiednio formowanych stru-
mieni bitowych.
Obserwuje
modelowania
jest wprowadzeniem w zagadnienie kompresji,
podkreśla
du-
efektywne metody kodowania we
współczesnych
systemach
teleinformatycznych, definiuje podstawowe
pojęcia
i zwraca
uwagę
na
potrzebę
rze-
telnej charakterystyki kodowanych danych. Opisano tam podstawowe cechy obrazów,
zwrócono
uwagę
na
zróżnicowanie
danych obrazowych, a co za tym idzie, metod ich
efektywnej kompresji. Przedstawiono
także
paradygmat kompresji obrazów w wersji
bezstratnej
dający
wzorzec elastycznego kodera obrazów naturalnych, biomedycz-
nych i innych, przy czym zwrócono
uwagę
na problem kompresji stron dokumentów
czy reklam
zawierających
obraz i tekst (tzw. obrazy mieszane). Dokonano syntetycz-
nej charakterystyki metod kompresji obrazów,
rozwiniętej
w dalszej
części
opraco-
wania. Krótki rys historyczny ukazuje intensywny rozwój
różnorodnych
koncepcji
kompresji danych na przestrzeni ostatnich
dziesięcioleci
i
duże
zainteresowanie
tematyką badań
na
całym świecie. Rozdział
ten zawiera
także
kilka praktycznych
wskazówek, jak
tworzyć własne
kodery, jak
zrealizować
prosty algorytm, gdzie zna-
leźć
w Internecie
ogólnodostępne
biblioteki oprogramowania, bogate w
użyteczne
procedury kompresji.
Pierwszy
żą rolę, jaką odgrywają
rozdział
się tendencję
źródeł
cepcji zaawansowanych metod kodowania,
projektowania
własnych rozwiązań.
Rozdział
określają także
warsztat
niezbędny
do
trzeci dotyczy optymalnej metody kodowania symboli znanej jako meto-
da Huffmana. Idea kodów symboli
przypisujących różne słowa
kodowe poszczególnym
symbolom danych kodowanych przyrostowe
znalazła optymalną realizację już
wie-
le lat temu. David A. Huffman, jeden z
największych
autorytetów teorii informacji
zaproponował
w swojej pracy magisterskiej z roku 1952
metodę
wyznaczania
słów
kodowych na podstawie wag poszczególnych symboli (tj. szacowanych prawdopo-
dobieństw
ich
występowania
w kodowanym strumieniu danych). Jest to
wstępująca
metoda
łączenia węzłów
o
najniższej
wadze w nowe
węzły
z
sumą
ich wag, w
odróżnie­
niu od metody
zstępującej
Shannona-Fano
polegającej
na dzieleniu grupy
węzłów
na
dwie podgrupy o
możliwie zbliżonej
sumie wag. W rozdziale scharakteryzowano obie
te metody, podano algorytmy, wykazano
optymalność
kodu Huffmana. Ponadto wska-
zano statyczne i dynamiczne (adaptacyjne) sposoby realizacji algorytmu Huffmana,
zwracając uwagę
na wiele problemów
związanych
z
konstrukcją
i
modyfikacją
bi-
narnego drzewa Huffmana, struktury przydatnej w wyznaczaniu kodu optymalnego.
Szczególne przypadki
źródeł
o tzw. geometrycznych
rozkładach prawdopodobieństw
wystąpienia
symboli
można kodować
za
pomocą
uproszczonych wersji kodu Huff-
mana, tj. kodów unarnego, Golomba, Rice'a i innych kodów
przedziałowych.
Kody
te, powszechnie wykorzystywane we
współczesnych
standardach i uznanych forma-
tach kompresji danych (w tym obrazowych), opisano wraz z
przykładami zastosowań,
zwracając uwagę
na
łatwość
ich realizacji i
uzyskiwaną szybkość
algorytmów kodowa-
nia.
Rozdział zakończono
syntetycznym zestawieniem omówionych kodów symboli.
Czwarty
rozdział
dotyczy strumieniowych metod kodowania binarnego
według
koncepcji kodowania arytmetycznego. Jedno
słowo
kodowe jest w tym przypadku
przypisane
całemu
zbiorowi kodowanych danych jako liczba
ułamkowa
z przedzia-
łu
[O,
1). Podano algorytm kodowania arytmetycznego
określający
sposób obliczania
tej liczby, a
także
sposób realizacji tej koncepcji w arytmetyce
całkowitoliczbowej.
Ponadto poruszono dwa istotne zagadnienia: statystyczne modelowanie kontekstu
służące określeniu
w sposób adaptacyjny aktualnych
prawdopodobieństw wystąpie­
nia poszczególnych symboli
źródła opisującego
dane
źródłowe
(m.in. metody PPM
i CTW) oraz binarny algorytm kodowania (dla alfabetu
składającego się
z
O
i 1),
który
umożliwia szybką
i
efektywną realizację
kodera arytmetycznego.
Podkreślono
duże
znaczenie adaptacyjnych koderów binarnych, obecnych we wszystkich nowocze-
snych standardach kompresji obrazów. Udoskonalone realizacje binarnych koderów
arytmetycznych wykorzystano w takich standardach jak: JBIG, JBIG2, JPEG2000,
MPEG-4,
zaś
uproszczone implementacje
przybliżeń
koncepcji kodowania arytme-
tycznego o mniejszej
złożoności
czasowej i
pamięciowej
tom.in. koder-Z (ze standardu
DjVu), koder ELS (z formatu Pegasus PIC) czy nawet adaptacyjny koder Golomba
(ze standardu JPEG-LB). Omówiono sposoby redukcji
złożoności
algorytmu kodo-
wania przy zachowaniu jego
efektywności, zwracając
przy tym
uwagę
na
powiązanie
koncepcji kodowania arytmetycznego i metody kodowania
długości
serii (sekwencji).
W
piątym
rozdziale opisano
inną grupę
metod, tj. algorytmy kodowania
słow­
nikowego. Poszczególne algorytmy
różnią się
sposobem budowania
słownika,
wyko-
rzystywanego do wyszukania
powtarzających się
identycznych (z
dokładnością
do
bitu) sekwencji symboli,
stanowiących
frazy
słownika.
Do
oszczędnego
zapisu indek-
su kodowanej frazy wykorzystuje
się często
metody entropijne (np. algorytm
defiate
z pakietu ZLIB). Kodowanie
słownikowe
dotyczy
więc
przede wszystkim sposobu
modelowania danych
wejściowych
metodami deterministycznymi. Stosowane w ta-
kich formatach lub standardach kompresji obrazów jak GIF, PNG, czy TIFF,
W kolejnych
pięciu rozdziałach
przedstawiono najbardziej
użyteczne
metody binar-
nego kodowania,
składające się
na paradygmat bezstratnej kompresji obrazów z roz-
działu
pierwszego.
W drugim rozdziale przedstawiono teoretyczne podstawy kodowania
wynikają­
ce z klasycznej teorii informacji,
uzupełnionej
o wskazanie praktycznych
ograniczeń
oraz
użytecznych
modyfikacji, które
mogą zwiększyć efektywność
kompresji.
Ważne
jest tutaj przede wszystkim omówienie
pojęcia
informacji w
ujęciu
stochastycznym
i semantycznym oraz
nadmiarowości
reprezentacji danych i
właściwości
stosowanych
modeli
źródeł
informacji. Oprócz ogólnych zasad kodowania
według
Shannona poda-
no
także
schematy blokowe bezstratnych metod kompresji oraz adaptacyjnego spo-
sobu realizacji algorytmów kodowania. Zamieszczono
przykłady
bardziej
szczegóło­
wych
rozwiązań
metod modelowania i binarnego kodowania aby
dokładniej wyjaśnić
zagadnienia teoretyczne.
Treści
tego
rozdziału umożliwiają
lepsze zrozumienie kon-
8
9
także podstawą
tak znanych
narzędzi
(ogólnego przeznaczenia) do archiwizacji da-
nych, jak:
ARJ, LHarc, RAR,
cała
rodzina koderów
ZIP
itp.
Rozdział
szósty dotyczy metod
wstępnego przekształcenia
danych w celu ich sku-
teczniejszej kompresji, czyli modelowania z wykorzystaniem liniowych i nieliniowych
modeli predykcji
(często zależności
funkcyjnych). Aktualnie kodowany symbol (war-
tość
z alfabetu) jest przewidywany na podstawie symboli
sąsiednich,
przy czym
są­
siedztwo
określa
przyczynowy kontekst (na który
składają się
pozycje danych wcze-
śniej
zakodowanych). Przeprowadzone badania w wielu przypadkach
potwierdzają, że
większe
znaczenie od odpowiednio dobranej funkcyjnej
zależności
przewidywania ma
sposób definiowania kontekstu, najlepiej w sposób adaptacyjny (w przód i wstecz),
iteracyjny, wielorozdzielczy (dla obrazów). Teoretyczne poszukiwania optymalnych
metod predykcji
zakładają określony
poziom korelacji danych w
najbliższym sąsiedz..
twie. Klasyczne kryterium optymalizacji, tj. minimalny
błąd średniokwadratowy,
nie
przekłada się
zwykle na minimalny rozmiar skompresowanego pliku. Dobrze jest bo-
wiem
uwzględnić
w kryterium
również minimalizację
entropii, której obliczenie wy-
maga estymacji
prawdopodobieństw
symboli. Niestety, dla
sygnału
niestacjonarnego
o
wyraźnie zróżnicowanej
statystyce lokalnej
prawdopodobieństwa
te nie
mogą być
szacowane wiarygodnie. l\fodele nieliniowe
można
zwykle lepiej
dopasować
do lokal-
nych zmian, jednak zmiany o charakterze odmiennym od
założonego mogą
dopro-
wadzić
do
gwałtownego
pogorszenia
efektywności
predykcji i
całego
algorytmu kom-
presji. Nie ma
więc
prostych
rozwiązań,
które
umożliwiają
uzyskanie
efektywności
' uniwersalnej, tj. na „przyzwoitym" poziomie dla
różnorodnych
danych
wejściowych
(optymalność globalną choćby
w sensie
przybliżonym).
Poszukiwania
użytecznych
modeli predykcji, w tym liniowej DPCM i
rozwiązań
adaptacyjnych,
stanowią
naj-
istotniejszą część
tego
rozdziału.
Ponadto podano wiele
przykładów
modeli predykcji
wykorzystanych w efektywnych koderach obrazów.
'vV siódmym rozdziale omówiono wybrane metody
łączenia
efektywnych sposo-
bów modelowania oraz binarnego kodowania w algorytmach bezstratnej kompresji
obrazów. Przedstawiono,
wykorzystujące wstępną charakterystykę
obrazów, sposoby
sekwencyjnego
porządkowania
danych w jednowymiarowy
strumień wejściowy
kode-
ra binarnego, a
także
hierarchiczny opis
zależności
danych w oryginalnej przestrzeni
dwuwymiarowej, który pozwala
zwiększyć efektywność
kompresji. Podano
rozwiąza­
nia standardowe, uznane schematy koderów, wyniki eksperymentów
weryfikujących
ich
skuteczność.
'vV prezentowanych algorytmach wykorzystywane
scharaktery-
zowane
wcześniej
metody kodowania i modelowania danych, dopasowane do stan-
dardowych zbiorów testowych
zawierających różne
rodzaje obrazów. Dodano
także
krótką charakterystykę
metod falkowych wykorzystywanych
często
do
zastosowań
o opcjonalnym wyborze rodzaju kompresji (od stratnej do numerycznie bezstratnej).
Rozdział
ten stanowi podsumowanie
zagadnień związanych
z
bezstratną kompresją
obrazów. Zwrócono w nim
uwagę
na
rozwiązania
praktyczne, na
narzędzia
znane
jako najbardziej efektywne i przydatne w wielu zastosowaniach. Poszukiwano tak-
że
odpowiedzi na pytanie o
możliwość
i sposoby
zwiększenia wydajności używanych
obecnie koderów obrazów. Sygnalizowane
kierunki dalszego rozwoju tej dziedziny
wobec znanych
ograniczeń.
Podziękowanie
Ta
książka powstała dzięki życzliwej
pomocy wielu osób.
Dziękuję
dr. Marianowi
Kazubkowi,
że zainteresował
mnie
tematyką
kompresji danych. Prof.
\Vładysławowi
Skarbkowi jestem
wdzięczny
za
współpracę
i „mistrzowski punkt odniesienia"
w moich badaniach. Prof. Ryszardowi Tadeusiewiczowi oraz profesorom
Zdzisławowi
Pawłowskiemu
i Zbigniewowi Kulce
składam
serdeczne
podziękowanie
za cenne
opinie i uwagi.
Książka
jest lepsza
dzięki
wnikliwej korekcie dr. Grzegorza Ulachy,
dr. Radka Sikory i
Pawła Bargieła.
Szczególnie cenne
dla mnie merytoryczne
sugestie, profesjonalizm i
bezinteresowność
dr. Grzegorza Ulachy.
Dziękuję także
mojej kochanej rodzinie,
żonie
Magdalenie, Mateuszowi i Zosi.
'vVarszawa, czerwiec 2005
Artur Przelaskowski
Zgłoś jeśli naruszono regulamin