Artikel pedia
| Home | Kontakt | Artikel einreichen | Oberseite 50 artikel | Oberseite 50 autors
 
 


Artikel kategorien
Letztes fugte hinzu
    Ms-access

   Instrumentation + schnittstellen

   Pc tuning - volle kraft voraus für ihr system

   Informatorische grundlagen

   Javascript

   Interne sortieralgorithmen - der kern der sache

   Plotter und sonstige drucker

   Frage 20 (rössl priska)

   Internet - programmierung

   Monitore

   Semesterarbeit und spezialgebiet für informatik

   Erörterungs zum thema

   Inhaltsverzeichnis

   Einführung in die entwicklung ganzheitlicher informationssysteme:

   Titel dokument
alle kategorien



  Vorwort

VORWORT 2DATEIFORMATE 3GIF (Graphics Interchange Format 3JPEG (Joint Photographic Experts Group) 4BMP (Windows – Bitmap) 5TIFF (Tag Image File – Format) 5PNG (Portable Network Graphic) 5KOMPRIMIERUNGSVERFAHREN 7Huffman – Codierung 8RLE (Run Length Encoding) 8LZW (Lempel Ziv Welch) 9JPEG 9EINGABE- UND LESEGERÄTE 10Trommelscanner 11Flachbettscanner 12Handscanner 13Digitalkamera 14Auflösungen und Farbtiefen 15EINFACHE GESTALTUNG 18Adobe Photoshop 18QUELLENNACHWEIS 20 Vorwort In den Zeiten von andauerndem Technologiefortschritt habe ich mich entschlossen in meiner Fachbereichsarbeit, Digitale Bildbearbeitung zum Thema zu machen. Es ist sehr interessant zu beobachten wie sich dieser Bereich in den letzten Jahren entwickelt hat und welche Ergebnisse erzielt werden können. Ich hoffe ich kann Ihnen lieber Leser auf den folgenden Seiten die Technologie und die Hintergründe der digitalen Bildbearbeitung etwas näher bringen. Dateiformate Grafikformate sind gerade im Bereich Multimedia oft von entscheidender Bedeutung. Dabei spielen meist sehr viele Faktoren eine Rolle bei der Wahl eines bestimmten Formats. Unkomprimiert sind Bilddaten meist zu groß und unhandlich.

Verschiedene Datenformate bieten aber nicht nur unterschiedliche Kompressionen, sondern auch unterschiedliche Qualität des gespeicherten Bildes. Nicht zuletzt spielt auch der Verbreitungsgrad eines Dateiformates eine wichtige Rolle in der Auswahl der richtigen Kompression. Auf den folgenden Seiten werden die gängigsten Grafikformate und Kompressionen einander gegenüber gestellt und die Vor- und Nachteile besprochen.   GIF (Graphics Interchange Format Das GIF-Format wurde speziell für den Online Bereich entwickelt. Seine Vorteile liegen in der hohen Komprimierungsdichte (bei gleichem Inhalt zehn- bis dreißigmal höher als bei Windows-Bitmaps). Es ist neben JPEG das am meisten verbreitete Format im Internet.

Es besitzt eine Farbpalette, die bis zu 256 Farben oder 8 Bit pro Pixel (Bildpunkten) enthalten kann. Die höchst mögliche Auflösung eines Bildes in diesem Format beschränkt sich auf 16000 x 16000 Pixel. Die Daten des Bildes werden durch die verlustfreie Lauflängenkodierung (LZW siehe S. xx) komprimiert. Das GIF-Format eignet sich besonders für Bilder mit wenigen grafischen Informationen wie Schriften oder einfache geometrische Figuren. Im Idealfall kann bei einem einfärbigen Bild die Kompressionsrate von 30:1erreicht werden.

Im ungünstigsten Fall, falls sich jedes Pixel von seinem angrenzenden unterscheiden sollte, wird mit LZW immer noch eine Kompressionsrate von 65% erreicht. Es gibt zwei Versionen des GIF Formates: GIF87a und GIF89a Es besteht die Möglichkeit ein Bild „interlaced“ abzuspeichern ,was bedeutet dass das Bild nicht zeilenweise geladen, sondern schichtweise aufgebaut wird. Speziell für den Einsatz im WWW empfiehlt sich diese Methode da man gleich zu Beginn des Ladevorganges ein ungefähres Bild erhält, welches nach einiger Zeit immer schärfer am Bildschirm des Anwenders erscheint. Mit dem „89“-Format eröffnet sich auch noch die Möglichkeit eine Farbe des Bildes als „transparent“ zu definieren. Mit Hilfe dieses Features lassen sich transparente Hintergründe generieren, wodurch in WWW-Seiten sehr schöne Effekte erzielt werden können. Ein weiterer Vorteil des GIF-Formates ist die Option mehrere Bilder in einer Datei und deren Abfolge abzuspeichern, wodurch animierte Grafiken entstehen.

  JPEG (Joint Photographic Experts Group) JPEG wurde von der Joint Photographic Experts Group (daher der Name) entwickelt. In JPEG-Dateien werden ähnliche Farbflächen zusammengefasst. Dabei kann die Kompressionsdichte variiert werden, wodurch die Qualität des Bildes besser oder schlechter wird. Je stärker die Kompression desto schlechter wird die Bildqualität.   Das JPEG-Kompressionsverfahren ist ein verlustreiches Verfahren. Es eignet sich kaum für Strichzeichnungen, da harte Kanten störende Effekte hervorrufen.

S/W Grafiken sollten vorher in ein Graustufen-Bild umgewandelt werden. Da die Sicherung eines in Graustufen umgewandelten S/W-Bildes im JPEG-Format auch bei höchster Kompressionsrate zu einer höheren Datenmenge führt als wenn das Bild im GIF-Format gespeichert wird, ist JPEG für S/W-Bilder ungeeignet.   JPEG eignet sich für Graustufen- und Farbbilder aller Farbtiefen. Dies ist ein Vorteil der JPEG komprimierten Grafiken gegenüber GIF. Bilder mit feinen Verläufen, die mehr als 256 verschiedene Farben enthalten, sollte man als JPEG-Datei abspeichern   Da die Bildqualität grundsätzlich beeinträchtigt wird, empfiehlt es sich, die Auswirkung verschiedener Kompressions-„Stärken“ auf das jeweilige Bild durchzutesten, um die gerade noch erträgliche Qualitätsbeeinträchtigung zu finden. Das JPEG - Komprimierungsverfahren wird genauer unter dem Punkt Komprimierungsverfahren behandelt   BMP (Windows – Bitmap) BMP ist unter dem Betriebsystem MS-Windows 3.




0 entstanden und dadurch ein sehr häufig verwendetes Bildformat geworden. Die Daten können optional mit Komprimierung abgelegt werden, was allerdings selten vorkommt.   Das Format ist unabhängig vom verwendeten Ausgabegerät definiert (device-independent), es kann auf verschiedenen Bildschirmen oder Druckern ausgegeben werden und wird auch von Programmen anderer Betriebsysteme unterstützt.   Dem BMP-Format ist das RGB-Farbmodell zugrunde gelegt. Durch den Aufbau der Farbtabellen ist auch die Kodierung von monochromen und von Graustufenbildern möglich.   TIFF (Tag Image File – Format) TIFF (Tag Image File-Format) wurde von der Firma Aldus Corporation entwickelt.

Das Format hat sich in den letzten Jahren zu einem der wichtigsten Formate für Rasterdateien entwickelt. Es wurde von Anfang an sehr umfangreich konzipiert und bietet eine Vielzahl von Speichermöglichkeiten und neben den eigentlichen Grafikdaten auch Angaben wie den Namen der benutzten Grafiksoftware oder den Scannertyp.   TIFF ist in der Lage, Schwarz/Weiß-, Grauwert- und Farbbilder bis zu 24 Bit RGB und bis zu 32 Bit CMYK zu speichern. Die Bildgröße ist auf ca. 4 Milliarden Bildzeilen begrenzt. Man kann in einer TIFF-Datei mehrere Bilder speichern.

  Sehr vielfältig sind die Möglichkeiten der Datenkompression (siehe Kompressionsverfahren) man kann aber auch Bilder ohne Kompression speichern.   PNG (Portable Network Graphic) PNG bedeutet Portable Network Graphic (ausgesprochen: PING). Es handelt sich um ein Grafikformat, das eigens für den Einsatz im WWW konzipiert wurde. PNG soll alle Vorteile von GIF und JPEG in sich vereinen:   PNG komprimiert verlustfrei wie das GIF-Format PNG unterstützt 16,7 Mio. Farben wie das JPEG-Format PNG ist wie GIF und JPEG plattformunabhängig PNG unterstützt transparente Hintergrundfarben wie das GIF-Format PNG erlaubt das Abspeichern zusätzlicher Information in der Grafikdatei, z.B.

Autor- und Copyrighthinweise      Gegenüberstellung eines Bildes mit Gif od. Jpeg Kompression   Komprimierungsverfahren Aus Gründen der Kapazität von Speichermedien (besonders im WWW)ist es notwendig Bildinformationen im Volumen zu reduzieren.   Es gibt drei Kategorien in die sie sich einteilen lassen:   1. Statistische Verfahren (Entropy Coding) suchen im Eingabestrom nach statistischen Verteilungen welche zur Reduktion der Daten ausgenutzt werden. Dabei wird die Eingabe als reiner Bitstrom betrachtet, ohne die inherente Semantik zu beachten.   2.

Semantische Verfahren (Source Coding) gehen von der Annahme aus, dass der Datenstrom eine semantische Struktur besitzt. Dabei spielen folgende Ansätze eine Rolle:   Kodierung von Unterschieden (Prediction), die davon ausgeht, dass zwei aufeinander folgende Blöcke nicht voneinander unabhängig sind, weswegen man nur die Unterschiede zu kodieren braucht.   Reduktion, hierbei versucht man z. B. durch eine Fouriertransformation Frequenzanteile zu finden, welche eine zu geringe Amplitude haben, um für das Ausgangssignal noch von Bedeutung zu sein. Diese werden gezielt weggelassen.

Im Bildbereich verwendet man statt der Fourieranalyse die Diskrete Cosinus-Transformation. Eine weitere Möglichkeit besteht darin, schon bei der Codierung des Eingabestromes ein geeignetes Verfahren zu wählen. So wird z. B. bei der YUV Codierung eine doppelt so hohe Auflösung für die Codierung der Helligkeit gewählt wie für die Farbinformation.   3.

Zusammengesetzte Verfahren (Hybrid Coding) verbinden die Vorteile der oben genannten Kategorien. Dabei folgt der Bildvorbereitung (A/D Wandlung und die Wahl einer geeigneten Codier ) eine Transformation (Picture Processing). Hierbei handelt es sich im Allgemeinen um die DCT. Nachdem bestimmte Frequenzanteile durch Quantisierung entfernt wurden, wird das Ergebnis einem der normalen statistischen Verfahren unterworfen   Huffman – Codierung Die Huffman-Codierung geht auf das Prinzip des Morsealphabets zurück. Dort werden häufig vorkommende Symbole (in diesem Fall Buchstaben) kürzeren Codes zugeordnet als die seltener vorkommenden. Der Code für ein "e" z.

B. besteht nur aus einem einzigen Morsezeichen. Dagegen sind zur Übertragung des selten vorkommenden y' 4 Morsezeichen nötig. Diese Methode wird als Entropie-Codierung bezeichnet. Entropie-Codierungen codieren nicht die zu übertragenden Daten, sondern die Symbole der Quelle. Entropie-Codierungen arbeiten verlustfrei.

  RLE (Run Length Encoding) Das RLE-Verfahren (Run Lenght Encoding) ist das einfachste unter den hier vorgestellten. Bei diesem Verfahren werden Folgen gleicher Bytes durch ein Paar (Zeichen, Anzahl) dargestellt: AAABBBBBBCCCDDDD also durch A3B6C3D4. In diesem Beispiel ergibt sich eine Reduktion von 50% (16:8 Byte). Run Length Encoding eignet sich besonders für Dateien mit langen Folgen gleicher Zeichen, z. B. Schwarz/Weiß-Grafiken.

Aus diesem Grund wird dieses Verfahren auch häufig für Fax-Formate verwendet, in denen sehr große weiße Flächen nur gelegentlich von schwarzen Buchstaben unterbrochen werden. Dateien mit häufig wechselnden Bytes eignen sich dagegen nicht für diese Codierung, Im schlimmsten Fall wird die neue Datei doppelt so groß wie das Original. LZW (Lempel Ziv Welch) Das LZW-Verfahren ist nach seinen Entwicklern Lempel, Ziv und Welch benannt. Diese Kompressionsmethode wird von vielen Grafikformaten (z. B. Gif) genutzt.

Bei dieser Codierung wird nach Folgen einzelner Bytes gesucht und diese durch eine Angabe von Anzahl und Wert ersetzt. Das LZW Verfahren sucht nach sich wiederholenden Zeichenketten und ersetzt diese durch einen Verweis auf die identische Zeichenfolge. Dieses Verfahren arbeitet mit einer Zuordnungstabelle, in der Verweise auf die einzelnen Zeichenketten gespeichert werden. Die Tabelle wird nicht in der eigentlichen Datei gespeichert, sondern muss bei jeder Kompression und Dekompression erzeugt werden.   JPEG JPEG ist ein standardisiertes Bildkompressionsverfahren, das von der Joint Photographic Experts Group entwickelt wurde. Es ist ein zusammengesetztes Verfahren.

  Die Komprimierung der Grafikdaten erfolgt in mehreren Schritten:   1. Schritt: Datenreduzierung Das Auge ist in der Lage mehr Unterschiede in der Helligkeit als Farbdetails zu sehen. Deshalb reduziert man die Farbinformation durch das Weglasssen einzelner Punkte. Dieses Verfahren wird Sampling genannt. Die Reduzierung wird in horizontaler und vertikaler Richtung getrennt vorgenommen. Somit ist es auch möglich unterschiedliche Reduzierungsraten für die verschiedenen Richtungen einzustellen.

  2. Schritt: Diskrete Cosinus-Transformation (DCT)   Dieses Codierungsverfahren ist ein wesentlicher Schritt der JPEG-Kompression. Die DCT basiert auf der Fourier-Transformation, die beliebige Signale als Überlagerung von Sinuswellen verschiedener Frequenzen und Amplituden darstellt. Aus der örtlichen Verteilung von Pixelwerten in einem Bild wird nach der Fourier-Transformation eine Frequenz- und Amplitudenverteilung. Große, regelmäßige Flächen im Bild ergeben dabei niedrige Frequenzanteile, feine Details hohe. Der überwiegende Anteil der visuellen Information eines Bildes mit kontinuierlich verteilten Werten liegt im Bereich niedriger Frequenzen.

Eine Kompression findet statt, indem höherfrequente Anteile des Bildes geringer gewichtet und Amplituden gleich null gesetzt werden.   3. Schritt: Quantisierung   Die Quantisierung ist die eigentlich verlustbehaftete Methode. Aus dem linearen Verlauf der Werte wird eine stufenartige Anordnung gebildet. Der Quantisierungsfaktor ist wählbar und entscheidet über die zukünftige Dateigröße und über die Qualität des zurückgewonnen Bildes. Als Beispiel: Wird ein Quantisierungsfaktor von 90 gewählt, so werden alle Werte zwischen -45 und +45 durch den Wert Null dargestellt.

Werte über 45 bis einschließlich 135 werden durch den Wert 1 abgebildet und so weiter.   4. Schritt: Lauf längen-Codierung   Die ermittelten Werte sind in der Zick-Zack-Reihenfolge angeordnet und werden durch Lauflängen-Codierung zusammengefasst. In den oberen 4 Bit eines Wertes wird abgelegt, wie viele Koeffizienten mit dem Wert Null sich vor diesem Koeffizienten befinden. Die unteren 4 Bit ergeben den Wert.   5.

Schritt: Huffman-Codierung Dies Codierung bildet den Schluss der Bearbeitung. Das Verfahren nutzt die unterschiedlichen, statistischen Wahrscheinlichkeiten des Auftretens eines Quellensymbols aus, um die Datenmenge zu reduzieren.   Eingabe- und Lesegeräte Der Scanner ist ein Bildtransformator. Er wandelt analoge Bilder in digitale Daten um. Der entscheidende Vorgang dabei: Bei der Abtastung der Vorlage zerlegt der Scanner das Bild in einzelne Punkte. Diese Bildelemente oder Pixel (picture elements) sind für den Computer verarbeitbare „Bildbröckchen“.

  Trommelscanner Trommelscanner bieten ein Höchstmaß an Auflösung und Dynamikumfang bei hoher Produktivität. Sie sind die erste Wahl für den High End Bereich. Denn diffizile Retuschen und Composings für Originalvorlagen auf 8 x 10 inch lassen keine Qualitätskompromisse zu. Die Tonwerte der Vorlage werden in 256 Tonstufen zerlegt und gespeichert. Die auf eine Trommel aufgespannte Vorlage wird mit einer Mikro-Optik abgetastet. Mittels Interferenzfilter erfolgt eine Zerlegung in vier Teilstrahlen für die Auszugssignale Cyan, Magenta, Gelb und Schwarz (CMYK).

Die drei Farben Cyan (Blauton), Magenta (Purpurrot) und Gelb (Y für Yellow) erzielen im Offsetdruck die meisten Mischfarben (= Europa Skala für 0-Hsetdruck). Dazu kommen Schwarz (K) für die Tiefe und die (meist) weiße Farbe des zu bedruckenden Materials (Papier). Ein Großteil der Farbauszugsscanner, die für qualitativ hochwertige Arbeiten eingesetzt werden, sind Rotationsgeräte (Trommelscanner). Die Vorlage und der zu belichtende Film werden auf getrennte Walzen gespannt. Die Abtastwalze besteht meist aus transparentem Kunststoff. Die Schreibwalze ist ausgerüstet mit einer Registerleiste zum Einspannen der Formatfilme sowie mit einer Vakuumeinrichtung.

In einem Online-Gerät sind beide Walzen starr miteinander verbunden. Da bei einem Online-Gerät Abtast- und Belichtungseinheit räumlich getrennt und nur durch ein Kabel verbunden sind, müssen beide Geräte elektronisch synchronisiert werden. Beide Zylinder der rotieren mit einer Geschwindigkeit von ca. 1.000 Umdrehungen pro Minute. Dabei wandern Abtastknopf und Schreibknopf langsam über die Vorlage und den zu belichteten Film.

So wird das Bild schraubenlinienförmig abgetastet und belichtet. Die einzelnen Zeilen liegen bei der Belichtung so dicht beieinander, daß sie als Linien nicht mehr erkennbar sind. Flachbettscanner In den vergangenen Jahren haben sich die Flachbettscanner immer stärker durchgesetzt. Sie finden sich heute in praktisch allen Anwendungsbereichen. Die Qualität moderner Flachbettscanner ist auch für gehobene Ansprüche bei der Verarbeitung von Bildern ausreichend. Die Popularität der Flachbettscanner hat ihren Grund vor allem in einem günstigen Preis Leistungs-Verhältnis, einfacher Handhabung und kompakten Dimensionen.

Zudem sind die Einsatzmöglichkeiten sehr flexibel. Mit Flachbettscannern und entsprechenden Optionen können Aufsicht- und Durchsichtvorlagen in unterschiedlichsten Formaten verarbeitet werden. Herzstück des Scanners ist ein sogenannter CCD-Chip (Charge Couple Device). Dieses Bauteil reagiert auf Licht und ändert abhängig davon seine elektrischen Eigenschaften. Die Vorlage, die zum Scannen auf die Glasscheibe gelegt wird, wird von einer Lampe (eine Leuchtstoffröhre) zeilenweise angestrahlt. Das reflektierende Licht wird über Spiegel und Linsen auf das CCD Element geleitet, welches die Bildinformation (hell oder dunkel) an den Rechner zur Weiterverarbeitung gibt.

Die Bildqualität ist abhängig von den Bildpunkten, die pro Zoll auf der Vorlage erkannt werden können. Dieses wird in dpi (dots per inch) gemessen. Als Beispiel: Erkennt das CCD-Element 300 Bildpunkte pro Zoll, so ergibt die Auflösung des Scanners 300 dpi. Eine Auflösung höher als 400 dpi ist heute physikalisch nicht möglich. Scanner, deren technische Daten 600 bis 800 dpi angeben, schaffen diese nur durch Berechnung (Interpolation). Ein schwarz/weiss-Scanner benötigt pro Bildpunkt ein Bit.

Also: Hell = 0, Dunkel = 1. Möchte man jedoch zwischen verschiedenen Helligkeiten, also Grauwerte, unterscheiden, so benötigt man mindestens zwei Bit. Hierbei spricht man von der Datentiefe. Die Anzahl der Bits pro Bildpunkt (auch Pixel genannt) kann mit folgender Formel berechnet werden:   schwarz/weiß Graustufen bei 16 Graustufen bei 256 Graustufen bei 16,8 Mio. Farben 1 Bit 2Bit/Pixel 4 Bit 8 Bit 24 Bit.   Handscanner Diese Geräte werden zumeist an die parallele Schnittstelle des Computers angeschlossen, manche Typen werden aber mit einer eigenen Schnittstellenkarte geliefert, die dann in den PC eingebaut werden muss.

Der eigentliche Scanner besteht aus einem der Computermaus sehr ähnlichen Gerät, welches an der Unterseite das Scanfenster trägt. Durch langsames manuelles Ziehen des Scanners über die Vorlage wird das Bild in den Computer eingelesen. Handscanner sind durch den starken Preisverfall der Flachbettscanner (siehe dort) beinahe vom Markt verschwunden. Ihre Vorteile liegen im sehr geringen Platzbedarf für das Gerät und im doch sehr günstigen Preis. Als Nachteil anzugeben, dass sich Vorlagen wie Abbildungen in Büchern kaum "unverwackelt" digitalisieren lassen. Die Auflösungen liegen zwischen 100 und 400 dpi.

Digitalkamera Neben der Weiterentwicklung bei den herkömmlichen Kameras stehen in letzter Zeit besonders Digitalkameras im Mittelpunkt des Interesses.   Zu den Vorteilen von digitalen Kameras gehören: Das sofortige Feedback, welches ein Löschen gleich nach einer misslungenen Aufnahme gestattet. Die zahlreichen digitalen Bildbearbeitungsmöglichkeiten, die noch vor kurzem lediglich Profis zugänglich waren. Keine Filmkosten, da Digitalkameras gar keinen Film benötigen.   Und wo kein Film ist, fällt auch das Warten auf die Filmentwicklung weg, das heißt, man kann sofort über Fotos verfügen. Da die Bilder einer Digitalkamera ohne Umwege gleich auf den PC übertragen werden können, steht auch der Präsenz im World Wide Web nichts mehr im Wege.

 Nachteile derzeitiger Kameras: Hoher Batterieverbrauch, insbesondere bei Benutzung eines LCD-Monitors. Teure Speichermedien in Form von PCMCIA-Karten, welche erst eine angemessene Zahl von Aufnahmen erlaubt. Ungeeignet für Bilder sich schnell bewegender Objekte, da die Aufzeichnung in drei Durchgängen erfolgt – pro Primärfarbe einer -, was mehrere Sekunden dauert. Höhere Druckkosten, insbesondere wenn echte Halbtonbilder mit einem Thermosublimationsdrucker ausgedruckt werden sollen. Schlechte Karten haben Digitalkameras auch in Fragen der Vielseitigkeit: Wer sich einmal die Ausstattung einer normalen Spiegelreflexkamera ansieht – zum Beispiel die Belichtungssteuerung – weiß, was man mit dieser Technik alles anstellen kann. Die digitale Konkurrenz kann da nicht ansatzweise mithalten.

Das gleiche gilt fürs Zubehör: Mit dem Geld für die Digitalkamera und eine PC, falls dieser nicht vorhanden ist, kann man sich heute eine fürstliche Spiegelreflex-Ausrüstung anschaffen. Weil die Dateien gescannter Bilder in der Regel sehr umfangreich sind, erfordert ein Bildbearbeitungs-Computer eine Menge RAM-Speicher. Wenn die Größe eines Bildes den verfügbaren RAM-Speicher überschreitet, so kann es eventuell nicht geöffnet werden. Die Grafikkarte im Computer verbindet den Monitor mit der CPU. Die Bit-Tiefe der Grafikkarte bestimmt, wie viele Farben gleichzeitig auf dem Bildschirm angezeigt werden können. Für ein volles und naturgetreues Farbspektrum ist eine 24-Bit-Grafikkarte erforderlich.

Sollte man aber über eine gute Kleinbildkamera verfügen, bietet ein Filmscanner wahrscheinlich die bessere Alternative. Der Durchlichtscanner holt die Bilder in deutlich höherer Qualität auf die Festplatte. Ein weiteres Problem digitaler Kameras beruht auf der Größe des CCD-Chips: Während beim Kleinbildfilm die Diagonale eines Negativs 43 Millimeter beträgt, ist aus Kostengründen die Größe des CCD-Chips derzeit auf ca. 6,5 Millimeter begrenzt. Damit nun ausreichend Licht auf die kleinere Aufzeichnungsfläche fällt, muß es durch hochwertige Objektive fokussiert werden, was den Kamerapreis wieder ansteigen lässt.   Auflösungen und Farbtiefen Die meisten Bildbearbeitungsprogramme besitzen Funktionen zur Änderung der Auflösung von Bildern.

  Auch die Änderung des Bildformates kann sich auf die Auflösung auswirken. Beim Vergrößern verringert sich in der Regel die Auflösung eines Bildes, da die ursprünglichen Pixel einfach mit geringerer Dichte gepackt werden. Dies lässt sich vermeiden, wenn man gleichzeitig ein Upsampling vornimmt. Beim Verkleinern erhöht sich die Bildauflösung, denn die ursprünglichen Pixel werden dichter gepackt.   Wenn man mit einer digitalen Kamera fotografiert, kann man die Auflösung des Bildes vor der Aufnahme einstellen. Bei den meisten Digitalkameras hat man die Wahl zwischen zwei oder drei verschiedenen Auflösungen: 320x240 Pixel, 640x480 Pixel oder 800x600 Pixel und mehr.

Welche Einstellung man wählt, hängt davon ab in welcher Form man das Bild später betrachten will, z.B. nur auf dem Monitor oder auch als Ausdruck. Je höher die Qualität des Bildes und je größer das Format sein soll, desto höher muss die Auflösung sein.   Für die pure Anzeige auf dem PC-Monitor oder Fernsehschirm reicht bereits die geringste Auflösung von 320x240 Pixel vollkommen aus. Die Bildgröße entspricht dabei einem Format von 8x6 cm, wenn von einer Kamera-Auflösung von 96 dpi ausgegangen wird:   320/96 x 240/96 = 3,3 x 2,5 Inch oder 8x6cm die VGA-Auflösung von 640x480 Pixel entspricht dann folgender Bildgröße: 600/96 x 4890/96 = 6,6 x 5 Inch oder 17x13cm dieses Standard-Format eignet sich nicht nur für die volle VGA-Wiedergabe auf dem Monitor, sondern ist auch für den Druck geeignet.

Eine Auflösung von 800x600 Pixel entspricht einer Bildgröße von: 800/96 x 600/96 = 8,3 x 6,25 Inch oder 21x16cm   Auflösung beim Einscannen von Bildern:   Wenn man mit einem Bildbearbeitungsprogramm ein Foto bearbeiten oder ausdrucken will, das z.B. nur als Abzug vorliegt, muss man es zunächst durch Einscannen in eine digitale Form überführen.   Wie hoch dabei die Auflösung sein sollte, hängt davon ab, in welcher Form man das Bild am Ende betrachten will. Fällt das Ergebnis hingegen kleiner aus als die Vorlage, sinkt die Scanauflösung um den entsprechenden Faktor; fällt das Ergebnis größer aus als die Vorlage, erhöht sich die erforderliche Scanauflösung um diesen Faktor. Will man ein 35mm-KB-Dia beispielsweise formatfüllend mit 300 dpi auf eine DIN-A4-Seite ausdrucken, ist bereits eine Scanauflösung von über 2600 dpi erforderlich:     DIN-A4: 29,5x21cm KB-Dia: 3,6x2,4cm Vergrößerungsfaktor: rund 8,7 (Ausgabeauflösung) 300 dpi x 8,7 (Vergrößerungsfaktor) = 2610 dpi (Scan-Auflösung ohne Bearbeitungspotential)   Farbtiefe:   In einer sogenannten Bitmap ist die Farbe jedes Pixel in einem oder mehreren Daten-Bits beschrieben.



Die Anzahl der für die Speicherung der Daten eines Pixel verwendeten Bits wird als Farbtiefe bezeichnet. Je mehr Bits für die Speicherung der Farbe verwendet werden, desto höher ist die Anzahl der Farben, die das Bild enthalten kann. Es stehen einem drei Wahlmöglichkeiten für die Farbtiefe zur Verfügung: 1 Bit Ein Datenbit kann nur einen von zwei Werten – 0 für Aus und 1 für Ein – beschreiben. Deshalb kann ein Pixel, das nur durch ein Bit beschrieben wird, auch nur eine von zwei Farben haben: entweder Schwarz oder Weiß. Mit jedem zusätzlichen Bit erhöht sich die Anzahl der beschreibbaren Farben exponentiell.   8 Bit In einem 8 Bit-System kann jedes Pixel eine von 256 verschiedenen Graustufen bzw.

einer von 256 Farbtönen zugeordnet sein. Die meisten Eingabegeräte und Bildverarbeitungsprogramme verarbeiten sogar 24-Bit-Farben, so dass durch Mischung der 256 verfügbaren Farbtöne für jede Primärfarbe (Rot, Grün, Blau) über 16,7 Millionen Farben dargestellt werden können.   32 Bit in einem 32-Bit-System beschreiben nur 24 Bit die Pixel-Farbe. Die zusätzlichen 8 Bit werden für einen Alphakanal verwendet, der einen Transparenzwert für das Pixel enthält. Wenn die Hintergrundflächen eines Bildes zum Beispiel als transparent definiert sind, können sie von den anderen Bildern überlagert werden, ohne diese zu verdecken. Auch Farbdateien, die in getrennte CMYK-Kanäle separiert sind, arbeiten mit 32 Bit.

  Um Speicherplatz zu sparen, bietet sich auch die Reduzierung der Farbtiefe von Bildern an, da später viele Ausgabegeräte gar nicht die volle Farbenpracht nutzen können. Zu diesen Geräten zählen vor allem die einfachen Tintenstrahldrucker und die Laserdrucker. Da Digitalkameras zunächst Bilder in 24-Bit-Farbtiefe – also mit rund 16,7 Millionen Farben – aufnehmen, ohne dass man darauf einen Einfluss hat, sollte man jedoch später bei der Bildbearbeitung am PC die Farbtiefe reduzieren. Man wird bald feststellen, dass man durch eine Reduzierung zwar ordentlich Speicherplatz auf der Festplatte gespart hat, aber dennoch kaum einen Unterschied auf dem Monitor in der Bildqualität feststellen kann.   Einfache Gestaltung Heutzutage gibt es sehr viele gute Bildbearbeitungsprogramme mit welchen man so gut wie jeden Effekt erzielen kann. Deshalb werden hier nur einige Beispiele an hand von Adobe Photoshop erklärt welches wohl das meist verwendete Programm in der Branche ist.

  Adobe Photoshop Korrigieren der Tonwerte   Der Tonwertumfang eines Bildes steht für den Kontrast bzw. die Detailgenauigkeit im Bild und wird durch die Verteilung der Pixel im Bild bestimmt. Er reicht von Schwarz (den dunkelsten Pixeln) bis Weiß (den hellsten Pixeln). Damit das Bild über Farben im gesamten Helligkeitsspektrum verfügt, werden mit der Tonwertkorrektur mehr schwarze und weiße Werte in das Bild gesetzt.   Entfernen eines Farbstichs   Ein Farbstich (Ungleichgewicht der Farben) kann schon in der Vorlage vorhanden sein oder beim Scannen auftreten. Um den Farbstich eines Bildes auf dem Bildschirm zu erkennen, ist ein 24-Bit-Monitor mit einer Darstellung von Millionen Farben nötig.

Auf 8-Bit-Monitoren mit 256 Farben ist ein Farbstich nur schwer oder gar nicht zu erkennen. Der Farbstich kann durch Verändern der Farbbalance entfernt werden.   Farbe ersetzen   Es ist möglich, den Farbton zu ändern, die Sättigung (Verhältnis der RGB-Anteile einer Farbe) und die Lab-Helligkeit (Anteile von Weiß oder Schwarz in einem Bild). Sollen nur bestimmte Bild- bzw. Farbbereiche verändert werden, müssen diese zuerst ausgewählt werden.  Abwedeln/Nachbelichten   Mit den Tonwertwerkzeugen Abwedler und Nachbelichter kannst du Bildteile aufhellen und abdunkeln.

Abwedler und Nachbelichter basieren auf traditioneller Fototechnik, bei der Bereiche eines Fotos vor der Belichtung geschätzt bzw. länger belichtet werden. Der Fotograf hält beim Belichten Licht zurück, um einen Bereich auf dem Foto aufzuhellen (Abwedeln) oder verlängert die Belichtungszeit, um Bereiche abzudunkeln (Nachbelichten).   Scharf/Weichzeichnen   Unscharf maskieren ist ein fotografisches Maskierungsverfahren der traditionellen Reprotechnik, das angewendet wird, um Kanten in einem Bild scharfzuzeichnen. Der Filter unscharf maskieren korrigiert die Unschärfe des Originalfotos oder gescannten Bildes und gleicht Unschärfen aus, die bei der Neuberechnung des Bildes und beim Drucken entstehen. Die Verwendung des Filters unscharf maskieren empfiehlt sich sowohl für gedruckte Bilder als auch für Bildschirm-Grafiken (z.

B. Grafiken für Webseiten). Quellennachweis   Grundzüge der Informatik III , 3. Auflage 1999 ,Schuh u.a., Manz Verlag Wien ,ISBN 3-7068-0339-9   https://www.

fundus.org/   https://www-hasylab.desy.de   https://www.uni-koeln.de   https://i31www.

ira.uka.de/   https://www.referate.at   https://www.vobis.

de/   https://www.agfaphoto.com/   https://ttrip1.fh-worms.de/   https://www.olympus-europa.

com   https://www.canon.de   https://www.e-bay.de      

Suchen artikel im kategorien
Schlüsselwort
  
Kategorien
  
  
   Zusammenfassung Der Vorleser

   sachtextanalyse

   interpretation zwist

   Fabel interpretation

   literarische charakteristik

   interpretation bender heimkehr

   felix lateinbuch

   interpretation der taucher von schiller

   textbeschreibung

   charakterisierung eduard selicke
Anmerkungen:

* Name:

* Email:

URL:


* Diskussion: (NO HTML)




| impressum | datenschutz

© Copyright Artikelpedia.com