Cookies – Komfort und Datenkrake zugleich

Cookies – Wofür braucht man die eigentlich?

Man hört so oft von verschiedenen Fachbegriffen wenn es ums Internet geht. Ob es nun JavaScript, Flash oder Cookies sind. Mal wird gesagt es ist nützlich, mal wird gesagt es ist ganz böse.. Dieser Artikel beschäftigt sich mit Cookies, die genau genommen beides sein können – Gut und Böse.

Aber was sind denn Cookies eigentlich überhaupt?

Cookies sind im Prinzip nichts anderes als kleine Textdateien in denen Informationen über den Besucher einer Website gesammelt werden. Beim Besuch einer Website werden auf dem eigenen Computer – sofern die Nutzung von Cookies erlaubt ist – ein oder mehrere Cookies einer Website gespeichert.

Solch ein Cookie-Datensatz besteht aus diversen Parametern. Unter anderen mindestens aus seinem Namen, seinem Wert und dem Ablaufdatum – jedes Cookie verliert also irgendwann auch seine Gültigkeit. Auch darf ein Cookie nicht grösser als 4 kB sein.

Der Besucher, oder auch User kann durch einen entsprechenden Cookie eindeutig identifiziert werden – auch wenn sich die IP-Adresse ändert. Dazu ist lediglich ein eindeutiger Wert, ähnlich einem Fingerabdruck in einem Cookie nötig, welcher nur einem Benutzer zugewiesen wird.

Eine eindeutige Identifizierung durch Cookies ist auch nicht unbedingt schlimm – denn für den Inhalt eines Warenkorbes in einem Online-Shops ist diese Information sehr wichtig! Sollte aus Versehen der Browser geschlossen werden, so kann durch das Auslesen des Cookies der Warenkorb wieder hergestellt werden. Betrachten wir daher erstmal die verbesserte User-Experience beim surfen durch..

Cookies als unsere Dienstleister

Cookies sollen uns eigentlich als Dienstleister dienen und unsere User-Experience erhöhen. Um dies besser verstehen zu können betrachten wir einfach mal folgenden Cookie in seinem Inneren:

Unser Beispiel eines Cookie-Datensatzes mit dem Namen CookieTheme enthält als Inhalt: theme:2 Was soviel bedeutet wie: Ich besitze eine Variable namens theme, welche den Wert 2 besitzt. Ausgelesen darf dieser Cookie nur von www.beispiel-website.com und wurde unter dem Pfad /cookie-beispiel-website abgespeichert. Dieses Cookie verliert im Laufe des 3. Okt. 2017 seine Gültigkeit und wird dann automatisch wertlos und gelöscht.

Cookies - ein kleiner übersichtlicher Happen, ob nun als Datensatz oder als Keks.
Cookies – nicht mehr als ein kleiner übersichtlicher Happen, ob nun als Datensatz oder als Keks.

Nun stellen wir uns einen fiktiven User vor, welcher den oben erwähnten Cookie bereits besitzt. Dieser User hatte vor einiger Zeit die Website www.beispiel-website.com besucht und konnte zwischen verschiedenen Darstellungsmöglichkeiten wählen. Das Theme 1 ist eher schlicht und einfach mit blauen und grauen Farbakzenten. Das Theme 2 ist farbenfreudiger mit kräftigen Grüntönen.

Wie man an dem Cookie erkennen kann, hat der User sich für das Theme 2 entschieden. Diese Einstellung musste nur einmal vorgenommen werden und kann beim nächsten Besuch vom Cookie ausgelesen werden. Resultat: Das Theme 2 wird automatisch geladen und muss nicht erneut eigenständig angewählt werden.

Damit das Cookie aber nicht am 3. Oktober einfach abläuft und der User dann erneut seine Einstellungen vornehmen muss, werden Cookies in der Regel bei jedem Seitenaufruf aktualisiert. Denkbar wäre z.B. das dieses Cookie immer ein Ablaufdatum von einem Monat in der Zukunft hat. Wenn der User also innerhalb eines Monats die Seite besucht, dann bleiben seine Einstellungen erhalten – ansonsten verfallen diese.

Dieses einfache Szenario kann auf viele Anwendungsfälle übertragen werden. So können z.B. wie bereits weiter oben im Text bereits angedeutet Ihre zuletzt getätigten Einkäufe in einem Online-Shop vermerkt und Ihnen beim nächsten Besuch unter: Sie haben zuletzt gekauft angezeigt werden.

Ihr erneuter Einkauf wird hierdurch ungemein erleichtert – da Sie nicht alle für Sie relevanten Artikel mühsam neu suchen müssen.

Cookies haben also durchaus Ihre Daseinsberechtigung. Ein dauerhaftes blockieren von allen Cookies ist also nicht unbedingt ratsam, da dies bei vielen Websites die Funktionalitäten stark einschränken würde.

Trotz allem darf aber auch nicht vergessen werden, dass Cookies einen recht schlechten Ruf haben – nicht ganz unberechtigterweise.

Denn ebenso wie hilfreiche Cookies, gibt es auch Cookies die dem User keinen Mehrwert bieten und eher schaden können. Kommen wir daher nun einmal zu den…

Bad Cookies

Tja.. so sehr Cookies uns einen Mehrwert bieten können und einmal getätigte Einstellungen speichern können – so können diese auch Funktionen übernehmen die so gar nicht in unserem Interesse liegen.

Dieser Abschnitt behandelt die Cookies die uns unter Umständen eher schaden als nützen.

Tracking-Cookies

Einige Unternehmen haben sich darauf spezialisiert detaillierte Profile über uns anzulegen – um diese zum Anzeigen von personalisierter Werbung zu nutzen, oder um Ihnen Artikel zu einem deutlichen teureren Preis zu verkaufen – da Ihre Interessen und Vorlieben ihres *erschnüffelten* Profils darauf schließen lassen, dass Sie bereit sind für ein bestimmtes Produkt einen teureren Preis zu zahlen.

Diese eher bösen Datenkraken nutzen sogenannte Tracking-Cookies um Ihre Ziele zu erreichen.

Tracking-Cookies sind eine spezielle Art von Cookies welche das Surfverhalten eines Users detailliert aufzeichnen und so dessen Vorlieben und Kaufverhalten analysieren. Diese ganzen Informationen können einem User wiederum eindeutig zugeordnet werden – fertig ist der wertvolle Datensatz.

Ein Tracking-Cookie wird durch Drittanbieter meist in Form von Werbebanner erstellt – Das tückische daran: Dieses Cookie wird auch dann erstellt, wenn der User das Werbebanner nicht einmal anklickt. Eine Website kann also auch über Sie Informationen sammeln, wenn sie die entsprechende Website nie besucht haben. Das Laden des Werbebanners auf einer anderen Website reicht völlig aus!

Jetzt stellen Sie sich einfach mal vor, dass beim Laden eines Werbebanners der Firma X eben diese auf Ihren Rechner prüft, ob Sie bereits über ein Cookie verfügen. Falls nein, dann wird ein Cookie mit einer einmaligen Nummer auf Ihrem Rechner abgelegt. Diese Nummer ist Ihr Fingerabdruck und kann Sie eindeutig identifizieren. Nun surfen Sie gerade auf einer Seite welche Ihnen einen Überblick über die grössten aktuellsten Fernseher gibt – das Cookie vermerkt diese Information gleich mit.

Dann surfen Sie nebenbei nach den aktuellsten Fußballergebnissen. Auf einer Seite wo Sie sich informieren wird von der Firma X ein weiteres Werbebanner eingeblendet, dass über seinen Tracking-Cookie gleich brav mit vermerkt, dass Sie womöglich ein großer Fußballfan sind. Da Sie ja nun bereits ein Cookie von Firma X auf Ihrem Rechner haben wird dieses ergänzt. Firma X weiß nun über Sie, dass Sie große Fernseher mögen und womöglich ein begeisterter Fußballfan sind.

Die Ergebnisse des Fußballspiels haben Sie nun kontrolliert und surfen weiter. Sie landen auf einer weiteren Shop-Seite und suchen gezielt nach Spielekonsolen. Auf dieser Seite ist wieder ein Werbebanner der Firma X.
Ihr Profil bekommt langsam Form.

Das böse Tracking-Cookie weiß nun:
Sie sind ein User, welcher große Fernseher mag, wahrscheinlich ein begeisterter Fußballfan sind und Spielekonsolen mögen.

Jetzt ist bereits der Schritt erreicht wo schon die erste personalisierte Werbung angezeigt werden könnte – womöglich bestehend aus einem teuren Kombi-Paket, in dem Ihnen ein großer Fernseher mit der neuesten Spielekonsole und dem angesagtesten Fußballspiel für die Spielekonsole angeboten werden. Da Sie denken, dass dies ein Super-Angebot für Sie ist schlagen Sie zu – und merken dabei vielleicht gar nicht, dass Sie alles für 300 € weniger hätten haben können.

Wie Sie sehen haben Tracking-Cookies Ihren Nutzen – der aber nicht unbedingt zu Ihrem Vorteil sein muss..

Cookies und Sicherheit

Ein weiteres Risiko bilden Cookies, welche Passwörter in Klartext, also unverschlüsselt in einem Cookie ablegen. Nun könnte man ja meinen, dass so etwas stümperhaftes nur Websites betrifft die von Hobby-Webdesignern erstellt werden welche von Sicherheit sowieso keine Ahnung haben.

Irrtum, das Gegenteil kann der Fall sein! Vor ca. 5  Jahren waren die Passwörter der britischen Santander-Bank im Klartext in einem Cookie gespeichert. Und es ist noch gar nicht solange her wo dieselbe Problematik auch bei McDonalds anzutreffen war. Hier ist es dem Sicherheitsforscher Tijme Gommers gelungen sämtliche Passwörter durch eine weitere Sicherheitslücke (Cross-Site-Scripting-Lücke / XSS) auszulesen.

Sich dagegen zu schützen ist mitunter schwierig, da dies voraussetzt, dass Sie genau wissen was in solch einem Cookie über Sie genau gespeichert wurde. Das kann man wiederum von niemanden erwarten. Daher empfiehlt es sich immer die Cookies der letzten Sitzung zu löschen, wenn Sie sensible Daten eingegeben haben.

Wie sollte man mit Cookies umgehen?

Das kommt im Endeffekt immer auf den einzelnen an. Daher kann man das nicht verallgemeinern. Dem einen ist die totale Sicherheit seiner Daten wichtig, dem anderen ist das völlig schnuppe – Hauptsache das Surferlebnis ist optimal und er muss nicht bei jedem Seitenbesuch alle Daten erneut eingeben.

Sollte ich Tracking-Cookies blockieren?

Ob man nun Tracking-Cookies abschalten sollte oder nicht kommt auf die Sichtweise an. Über Tracking-Cookies werden nun mal Informationen websiteübergreifend über Sie gespeichert. Was genau damit passiert wissen Sie nicht!

Ein Teil Ihrer Daten wird wahrscheinlich genutzt um Ihnen maßgeschneiderte Angebote anzuzeigen, welche gerne auch mal etwas teurer sein können. Auch ist der Verkauf Ihrer Daten an Dritte bei Nutzung von Tracking-Cookies nicht auszuschliessen. Durch die Blockierung von Tracking-Cookies werden aber auch Komfort-Funktionen wie personalisierte Werbung wegfallen, da diese zum größten Teil ebenfalls Tracking-Cookies nutzt.

Wenn Ihnen Ihre Daten wichtig sind und Sie damit leben können auf verschiedene Komfortfunktionen zu verzichten, dann sollten Sie darüber nachdenken Tracking-Cookies abzuschalten. Dazu müssen die Drittanbieter-Cookies blockiert werden.

Eine Anleitung für die gängigsten Browser finden Sie hier:
Firefox: Cookies von Drittanbieter blockieren
Chrome: Cookie-Einstellungen ändern
Safari: Verwalten von Cookies

Passwörter und Sicherheit

Ich persönlich lasse meine Browser keine Passwörter speichern. Browser wie Chrome, Firefox und Co. sind nun mal nicht unbekannt und daher wie alle populären Programme Angriffsziele von Crackern (bösen Hackern).

Niemand kann sagen ob eine zukünftige Sicherheitslücke einen Datenklau von Passwörter möglich macht. Wenn dann zusätzlich noch die Verschlüsselung von den Passwörtern gehackt werden kann stehen dem Angreifer Tür und Tor offen.

Zu guter Letzt..

..denke ich dass es nicht grundlos Bedenken bezüglich Cookies gibt. Die Möglichkeit des Ausspähen persönlicher Daten und die Erstellung von Profilen ist nun mal Realität. Was darüber hinaus mit Ihren Daten passiert kommt prinzipiell auf die Website-Betreiber selbst an. Der Großteil wird diese Daten nutzen um Ihr Surferlebnis zu verbessern, der Rest verkauft Ihr Profil an andere Unternehmen weiter..

Heutzutage kann man sich gegen solche Sachen schwer schützen. Einen großen Riegel davor schieben kann man durch das Blockieren von Tracking-Cookies. Ob man das nun nutzen möchte muss jeder für sich entscheiden, da dadurch auch ein Teil des Komforts wieder verloren geht.

Passwörter sollten einen besonderen Schutz genießen. Ich persönlich denke, dass man seine Passwörter am besten nicht in Browsern speichert, sondern Passwort-Manager nutzen sollte welche nicht in Browser eingebunden sind.

Aber auch hier werden die Sichtweisen auseinander gehen. Was sind eure Erfahrungen? Wie geht Ihr mit dem Thema Cookies, Datenschutz und Sicherheit um? Ich freue mich auf Eure Antworten.

 

 

Homepage-Baukästen und Ihre Probleme

Einarbeitung notwendig – Oder auch: Wieviel kostet Ihre Zeit?

Eine Homepage zu erstellen erfordert einiges an Wissen. Auch wenn man sich selbst nicht mit HTML und CSS auseinandersetzen will – So muss doch zumindest die Baukastensoftware beherrscht werden. Des Weiteren sollte man über gewisse Themen Hintergrundwissen besitzen – Ohne dieses man später leicht in eine Sackgasse gerät. Als wichtigste Themen wären Content, Design, Usability und SEO (Suchmaschinenoptimierung) zu nennen. Wenn Sie mehr zu den wichtigsten Punkten beim Webdesign wissen wollen, so können Sie auf meiner Seite Webdesign mehr dazu erfahren.

Nicht selten kommt es vor das am Anfang voller Motivation und Tatendrang losgelegt wird, dann nach einiger Zeit jedoch entnervt das Handtuch geworfen wird. Sei es weil gewisse Vorstellungen nicht erfüllt wurden, oder einfach der Aufwand der Einarbeitung zu groß wird. Spätestens dann sollte man sich fragen ob es nicht sinnvoller gewesen wäre die Arbeit gleich in professionelle Hände zu geben – Denn ab diesem Punkt hat man bereits viel Geld verloren. Die ver(sch)wendete Zeit bei der Erstellung einer eigenen Homepage hätte vermutlich sinnvoller eingesetzt werden können.

Eingeschränkte Möglichkeiten im Design – Einzigartigkeit geht verloren

Eins muss man den Homepage-Baukästen schon lassen – Heutzutage sind diese wesentlich flexibler und anpassungsfähiger als noch vor ein paar Jahren. Trotz alledem kann ein simpler Homepage-Baukasten niemals die Flexibilität und Anpassungsfähigkeit einer Website liefern, welches ein komplexes CMS oder eine direkte HTML5 / CSS3 konform programmierte Website bietet.

Sie haben Ihre Wünsche und Vorstellungen bei der Erstellung Ihrer Seite, und diese sollen Sie auch haben. Leider kann ein simpler Baukasten nicht jeden Wunsch erfüllen – und es ist sehr ärgerlich wenn viel zu spät bemerkt wird dass die Vision Ihrer Website nicht so umgesetzt werden kann wie Sie es sich wünschen – weil der Homepage-Baukasten es schlicht und einfach nicht hergibt.

Ein professioneller Auftritt kann nur durch professionelle Erstellung erreicht werden.

Ein Unternehmen verspricht sich durch eine Internetpräsenz meist einen weiteren Kanal zur Kundengewinnung / Kundenbindung. Dies kann allerdings nur auf Basis einer professionellen Website erfolgen. Was Sie sicher nicht wollen, ist dass Ihre Besucher / potenzielle Kunden Ihre Website für unprofessionell halten.

Das kann schon durch Kleinigkeiten passieren. Dem Nutzer müssen nur gewisse unprofessionelle Merkmale auffallen, welche Sie womöglich bei der Konstruktion Ihrer Website gar nicht wahrgenommen haben. Gerade deshalb ist es so ungemein wichtig über breitgefächertes Wissen zu verfügen – denn der Schaden ist in solch einem Fall bereits entstanden.

Heutzutage weiß man, dass viele Besucher Ihren Ersteindruck einer Website automatisch auch als Gesamteindruck des Unternehmens werten. Kurz und knapp: Sie wirken gegebenenfalls unprofessionell – und im schlimmsten Fall bemerken Sie es nicht.

In einem solchen Fall wäre es für ein Unternehmen womöglich sogar besser gewesen die eigene Website nicht zu veröffentlichen. Es würde nämlich genau das Gegenteil von dem passieren was beabsichtigt war – anstatt potenziellen Kunden zu gewinnen – verliert man diese.

Probleme beim Umzug auf einen anderen Server

Viele Homepage-Baukästen bieten keine Lösungen zum sichern und übertragen von Websites auf fremde Server. Dazu kommt noch das Problem, dass es viele Baukästensysteme heutzutage gibt – es aber auch schon sehr viele gab – welche irgendwann vom Markt verschwanden.

Jetzt stehen Sie als Kunde eines Baukastensystemes womöglich vor einem Riesenproblem. Wenn Ihr Hoster in Konkurs geht, und Sie Ihre Website nicht auf einen anderen Server übertragen können – gehen Ihre Daten und somit Ihre komplette Website verloren.

Ihre ganze Investitionen wären so auf einen Schlag in den Sand gesetzt.

Kontrolle und Besitz Ihrer Daten

Nicht jeder Homepage-Baukasten bietet Ihnen die Möglichkeit frei über die von Ihrer Website gesammelten Daten zu verfügen. Manche bieten nicht einmal die Möglichkeit eine Datenbank aufzubauen und diese frei administrieren zu können.

Dies wiederum bedeutet, dass Sie in der Art und Weise wie Sie Daten sammeln, auswerten und verarbeiten können womöglich stark eingeschränkt sind. Eigene Datenanalysen sind dann zum Beispiel so gut wie unmöglich.

Zu guter Letzt stellt sich dann noch die Frage inwiefern Ihre bereits gesammelten Daten noch anderweitig genutzt werden. Viele Anbieter haben Ihren Sitz im Ausland, und was dort mit Ihren Daten passiert ist nur schwer nachvollziehbar.

Laufende Kosten

Eine gute und professionelle Website kostet viel Geld – das ist richtig, allerdings macht sich dies auch recht schnell bei der Rentabilität bemerkbar. Für eine eigene Website zahlen Sie nur einmal viel Geld – aber danach haben Sie außer dem Server wo die Website gehostet wird keine weiteren Kosten. Bei einem Baukastensystem zahlen Sie oftmals eine monatliche Nutzungsgebühr – dies könnte Sie auf die Jahre gerechnet teurer kommen als wenn Sie eine Website in Auftrag geben.

Fazit

Es gibt sicherlich eine Daseinsberechtigung für Homepage-Baukästen – allerdings sollte man deren Schwächen nie außer Acht lassen. Meiner Meinung nach sind einfache Baukästensysteme eher was für private Homepages und eignen sich weniger für die Präsentation eines Unternehmens – es sei denn man bringt viel Zeit mit um sich die notwendigen Kenntnisse anzueignen und kann auch auf spezielle Funktionalitäten verzichten, welche das Baukastensystem einfach nicht bieten kann.

Was ist Ihre Meinung dazu? Sollte man lieber auf Homepage-Baukästensysteme setzen oder die Entwicklung einer Website einem erfahrenden Webdesigner überlassen? Schreiben Sie mir. Ich freue mich auf Ihren Kommentar.

 

 

 

 

SEO – Häufig gemachte Fehler

SEO Puzzle Suchmaschinenoptimierung Einstellungen Know-How
SEO besteht aus vielen Teilen – Wie ein Puzzle ergeben diese das Gesamtbild.

Eines der wichtigsten Kriterien bei der Website-Gestaltung ist das SEO. Hierbei gibt es einiges zu beachten, denn man kann hier einiges falsch machen – ohne das dieses einem unbedingt bewusst ist. In diesem Artikel geht es um einige der häufigsten Fehler die bei der Suchmaschinenoptimierung passieren können.

Häufige SEO-Fehler, welche vermieden werden sollten.

Vernachlässigen der Seitengeschwindigkeit

Auch wenn es in unserer modernen Zeit von 100 MBit/s und mehr scheinbar egal zu sein scheint wie überladen eine Website denn nun ist – für das SEO ist das pures Gift! Davon mal abgesehen, dass selbst kleine spürbare Verzögerungen nachweislich das Surferlebnis der Nutzer auf solchen Websites trüben, mögen Webcrawler (Suchmaschinenroboter, welche Websites nach Informationen absuchen.) so etwas gar nicht.

Google benutzt die Seitengeschwindigkeit als einen sehr wichtigen Rankingfaktor. Ist diese zu langsam kann sich das definitiv durch eine schlechtere Platzierung bemerkbar machen.

Daher sollte eine Website immer hinsichtlich Ihrer Ladezeiten optimiert werden. Bilderkomprimierung, Reduzierung von Java-Script-Lasten und
Komprimierung von CSS3-Code sind als wichtigste Stellschrauben zu nennen.

Verwendung von Keyword-Listen

Absolutes No-Go. Was früher noch als unsaubere Allzweckwaffe galt um die Suchmaschinenplatzierung zu pushen ist heutzutage nicht nur nutzlos sondern sogar kontraproduktiv. Die Rede ist von Keyword-Listen – Einer haufenweisen Ansammlung von meist themenrelevanten Stichworten, welche unauffällig (z.B. durch weißen Text auf weißen Hintergrund) auf einer Website untergebracht sind.

Solche billigen Tricks werden heutzutage von allen Suchmaschinen, sei es nun Google, Yahoo, Bing usw. mühelos erkannt und deutlich abgestraft! Letztendlich wird hiermit immer das Gegenteil erreicht – eine schlechte Platzierung in den Suchergebnissen.

Fehlende Meta-Angaben

Ein grober Fehler bei einer Website sind fehlende Meta-Angaben in dem Kopfbereich von HTML Dateien. Denn gerade die Worte, welche hier in dem Meta-Tag der ‚description‘ angegeben werden, sind die Schlagworte die unter der Suche zur besseren Suchergebnissen führen.

Auch zusätzliche Meta-Angaben die auf die Aufwertung einer Website bezüglich des Responsive Designs gelten sind ausschlaggebende Kriterien für eine bessere Bewertung der Website.

Ohne diese Informationen ist eine Website unspezifisch und Google wird diese nicht annähernd in den Suchergebnissen berücksichtigen, wie der Betreiber der Website sich das wünschen würde.

Falsche Nutzung von dynamischen URLs

Bei der Verwendung von dynamischen Links gibt es ein paar Punkte denen unbedingt Beachtung geschenkt werden sollte – Andernfalls kann es vorkommen, dass die Website nicht richtig gecrawlt werden kann. Und dies würde im schlimmsten Fall bedeuten, dass wichtige Seiten nicht im Index von Google aufgenommen werden.

Zum einen sollte darauf geachtet werden, dass gleicher Content nicht auf unterschiedlichen URLs wiedergegeben wird – da dies einen Duplicate Content  (gleicher Inhalt auf verschiedenen Seiten) erzeugt – und das mag Google gar nicht. Sollte dies nicht ohne größere Veränderungen möglich sein, kann mithilfe von Canonical-Tags (Linkverweis auf ursprünglichen Content) Abhilfe geschafft werden.

Zum anderen sollte man es nicht versäumen dynamischen URLs immer semantisch passende Namen zum Content zu geben, da URLs mit einem nicht aussagekräftigen Namen nicht richtig zugeordnet werden können.

www.kochen-mit-fritz.de/content.php?site=3

Ob die zum Content passenden Begriffe nun in dem URL-Namen selbst oder in deren Parametern stehen spielt für das Crawlen einer Website heutzutage keine Rolle mehr.

Man kann sich dies an einem einfachen Beispiel veranschaulichen. Wenn z.B. der Linktext ‚pfannkuchen-rezept‘ lautet und die Website sich mit dem Kochen auseinandersetzt, so können nicht nur wir als menschliche Leser erahnen wohin der Link uns führt, sondern auch der Webcrawler kann durch semantische Textanalysen erkennen worum es geht – und dieser indiziert nun mal die Seiten für die Suchmaschinen.

www.kochen-mit-fritz.de/pfannkuchen-rezept.php?site=3
www.kochen-mit-fritz.de/rezepte.php?content=pfannkuchen

Auch wenn alle dynamische Links unter bestmöglichsten SEO-Aspekten erstellt werden, so sollten in bestimmten Bereichen auf die Nutzung von dynamischen Links völlig verzichtet werden. Hierzu zählt alles was zur Navigation und zum Bereich des Footers gehört.

Dies sollte unbedingt eingehalten werden, da ansonsten unter Umständen der Linkjuice (die Verknüpfungstärke eines Links) verloren gehen kann. Das Risiko sollte man einfach nicht eingehen, da der Linkjuice ein wichtiger Rankingfaktor bei Google ist und großen Einfluss auf die Platzierung in den Suchergebnissen hat.

Kaufen von automatisch generierten Backlinks

Ein etwas umfangreicherer Punkt – dafür aber umso wichtiger! Automatisch generierte Backlinks kaufen ist eine sehr schlechte Idee. Der Erfolg ist sicherlich schnell und deutlich sichtbar – die Frage ist allerdings für wie lange.

Denn prinzipiell wird das Kaufen von Backlinks, sogenannten unnatürlichen ausgehenden Links um die Suchergebnisse zu manipulieren von Google ganz klar als Richtlinienverstoß gewertet und dementsprechend eine Website deutlich und klar abgestraft.

Klar kann man auch Glück haben und die Manipulation fällt nicht auf. Dennoch: Google überprüft regelmäßig, ob es sich bei zustande kommenden Link-Verbindungen einer Website um gekaufte Links handelt. Man sitzt quasi immer auf einer tickenden Zeitbombe und weiß nicht ob und wann sie losgeht.

Eine Sache muss man bei der Generierung von Backlinks jedoch anmerken. Es gibt hier die schlechten und guten SEO-Agenturen welche sich mit dem Linkaufbau beschäftigen – Unterscheiden kann man diese meistens bereits anhand des Preises.

Die guten, professionellen Agenturen erstellen Backlinks durch Mitarbeiter quasi von Hand. Dies kollidiert auch nicht mit den Google Richtlinien.  Das Erstellen solcher guten Backlinks ist allerdings auch ein sehr aufwendiges Prozedere und hat dementsprechend auch seinen Preis – allerdings aber auch seine Qualität für die man bezahlt.

Die schlechten unseriösen Agenturen automatisieren die Generierung von Backlinks mittels Software. Diese schlechten gekauften Backlinks führen dann meistens zu Domains die Google bereits als Linkverkäufer entlarvt hat. Da bei dieser Methode Links automatisch generiert werden kostet dieses Verfahren auch nur ein Bruchteil dessen, was eine gute SEO-Agentur für manuell aufgebaute Links nehmen würde.

Letztendlich sollte man immer das hohe Risiko berücksichtigen, welches man eingeht, wenn man billige unnatürliche Backlinks kauft. In der Regel lohnt sich dieses nicht und man steht am Ende mit weniger Geld und einer abgestraften Domain da.

Zu guter letzt..

..hoffe ich, dass ich das Thema SEO und deren Fallstricke ein wenig aufschlüsseln konnte. Mir persönlich war es bei diesem Beitrag wichtig aufzuzeigen, dass gerade das Thema SEO einen breitgefächerten und aktuellen Wissenstandes bedarf um professionell angewendet werden zu können. Ebenso hoffe ich, dass ich den ein oder anderen die Augen öffnen konnte für die Praxis von manchen SEO-Agenturen, wenn es um das Thema Backlinks kaufen geht. Denn diese handeln letztendlich nicht im Sinne des Kunden.

Meiner Meinung nach ist gerade dieser Punkt ein oft diskutierter und meist unterschätzter Punkt. Denn so schnell man hier in die vordersten Plätze katapultiert werden kann, so schnell kann man auch wieder in den Tiefen des Internets verschwinden wenn Google einen hierbei abstraft.

-Fernando Carlsson

CSS3 – Tipps und Tricks (Teil 1)

Was ist CSS?

Heutzutage werden Websites schon lange nicht mehr in reinem HTML programmiert, sondern immer zusätzlich mit der Sytlesheet-Sprache CSS (Cascading Style Sheets) kombiniert.

Grob erklärt kann man sagen, dass HTML für die Erstellung des Codes und ihrer darin enthalten Objekte der Website zuständig ist. CSS wiederum definiert eben genau diese Objekte. Wie groß, wie breit, welche Farbe und welchen Abstand soll das Objekt zu den anderen Objekten haben? Alle diese Eigenschaften sollten bei einer guten Website in einer, oder auch mehreren, ausgelagerten CSS Datei(en) zu finden sein.

CSS wurde erstmals im Dezember 1996 als Standard vom W3C-Gremium gegründet. Mittlerweile hat sich CSS stark weiterentwickelt und liegt nun in der Version 3 vor. Daher spricht man heutzutage von CSS3. Aber fangen wir nun an mit den..

Tipps und Tricks (Teil 1)

1. Nie zu viele CSS – Dateien verwenden

Ein häufig gemachter Fehler ist das verwenden von vielen kleinen CSS Dateien. Für eine Website sollten nicht mehr als 3 CSS-Dateien verwendet werden. Sollte die Anzahl der CSS Dateien durch ein CMS in die Höhe gehen, so kann man z.B. versuchen diese durch geeignete Plugins zu reduzieren. Für WordPress wäre z.B. Better WordPress Minify eine gute Wahl.

2. Umsetzung von Responsive Design

Heutzutage werden Websites nicht nur auf dem PC oder Laptop betrachtet. Immer mehr kommen auch Tablets oder Smartphones zum Einsatz – Tendenz steigend. Hier gibt es ein Problem. Eine Website so wie Sie auf dem 21 Zoll – Bildschirm eines PC’s dargestellt wird ist nicht dazu geeignet genauso auch auf einem Smartphone wiedergegeben zu werden. Links wären kaum anklickbar, bzw. nur durchs Zoomen anvisierbar. Die gewählten Schriften wären zu klein – kurz und knapp: die Usability leidet.

Responsive Design umgeht das Problem, indem das Design so angepasst wird, dass der Inhalt und die Navigation auf jedem Endgerät optimal dargestellt wird.

Ein gutes Beispiel für die Umsetzung von Responsive Design per CSS ist die Verwendung von Media Queries. Diese ermöglichen für verschiedene Bildschirmauflösungen verschiedene Gestaltungen der Objekte.

Hier ein kleines Beispiel:

/* Desktoplösungen */
@media (min-width:1281px) and (max-width:1600px) {
 #HeaderContent
 {
  margin:0 auto;
  height: 300px;
  width: 1160px;
  text-align:center;
 }
}

/* Grosse Tablets und Laptops / Desktoplösungen */
@media (min-width:1025px) and (max-width:1280px) {
 #HeaderContent
 {
  margin:0 auto;
  height: 300px;
  width: 960px;
  text-align:center;
 }
}

/* Tablets im Landscape Modus, kleinere laptops und Desktoplösungen mit geringer Auflösung */
@media (min-width:961px) and (max-width:1024px) {
 #HeaderContent
 {
  width: 100%;
  height: 300px;
  background-size: 100% 100%;
 }
}

Je nach Auflösung wird das CSS Objekt mit der ID HeaderContent in einer anderen Breite (width) dargestellt. In diesem kurzem Codeschnipsel wurde die Auflösungsbreite von 961px – 1600px abgefangen und je nach Breite des verwendeten Endgeräts dem HeaderContent passend dazu eine andere Breite übergeben.

3. Richtige Nutzung von Kommentaren

In einer CSS Datei können auch Kommentare verwendet werden um die Lesbarkeit des Codes zu verbessern.

Kommentare gehören prinzipiell immer dazu. Der alte Spruch – naja ich hab ja jetzt gerade mal 30 Zeilen, da weiß ich ja immer wo ich grad bin – zählt spätestens nach ein paar Wochen nicht mehr. Denn irgendwann ist der Code länger und man hat es vergessen. Und dann hat man spätestens bei der nächsten Wartung oder Erweiterung das Problem, dass man höchstwahrscheinlich nicht mehr weiß warum man an der einen Ecke eben genau diesen einen Wert zusätzlich gesetzt hat, um den Content richtig darzustellen.

Ein mühsames und zeitaufwendiges neu reinfuchsen ist die Folge. Das kann verhindert werden, in dem man sich gleich zu Beginn an die Nutzung von Kommentaren gewöhnt.

Kommentare sollten immer aussagekräftig und auf den Punkt gebracht formuliert werden. Außerdem sollte auf die richtige Dosis bei der Vergabe von Kommentaren geachtet werden. Eine zu sparsame Nutzung von Kommentaren sollte vermieden werden. Jedoch sollte man auch nicht jede einzelne Zeile detailliert kommentieren.

Übrigens für alle die aus der C++ Welt kommen:

Kommentare in CSS beginnen mit /* und werden mit */ abgeschlossen. Kommentare sind mehrzeilig möglich.

Die C++ Variante für einzeilige Kommentare mit // ist nicht im CSS Standard vorgesehen und sollte unbedingt vermieden werden!

Dadurch können hässliche Fehler beim späteren Auslesen und Anzeigen der Browser entstehen. Es kann z.B. dann passieren, das die CSS Befehle für einen gewissen Bereich dann nicht erkannt werden und dementsprechend auch nicht greifen.

4. Browser zum Testen von CSS Code nutzen

Die neuesten Desktop – Browser Versionen besitzen mittlerweile alle eine Option welche sich Untersuchen oder Element untersuchen nennt. Eine der nützlichsten Features dieser Funktion ist die manuelle Anpassung des CSS Codes – und deren sofortigen Darstellung ohne neues Laden der Website.

Dieses Feature eignet sich hervorragend zur Fehlersuche und Testen von kleineren Layoutveränderungen. Darüber hinaus besitzen fast alle Browser ein weiteres Feature, welches die Möglichkeit bietet eine Website mit veränderbaren Auflösungen zu testen. Die Darstellung der eigenen Website auf verschiedenen Endgeräten kann so simuliert werden.

 

5. Nutze caniuse.com bei Unsicherheiten

Eine exotische CSS Funktion zu nutzen, ohne Prüfung ob diese von allen Browsern unterstützt wird ist meist eine schlechte Idee. Sie wollen Ihren Besuchern sicher genauso wenig wie Ich ein versehentlich zerschossenes Design zumuten, nur weil die Prüfung auf die kompatible Nutzung einer bestimmten CSS Funktion versäumt wurde – oder?

Daher sollte bei Unsicherheiten immer geprüft werden ob die kompatible Nutzung einer bestimmten Funktion auch wirklich gewährleistet ist.

Für solche Fälle, wo die CSS Funktionalität und deren Unterstützung von den gängigsten Browsern unklar ist bietet sich die Seite caniuse.com als hervorragendes Nachschlagewerk an.

Die Seite gibt einen sehr übersichtlichen Überblick über die einzelnen Funktionen, deren Besonderheiten und der kompatiblen Nutzung mit den herkömmlichen Browsern wieder. Es ist auf einen Blick erkennbar, wie risikobehaftet die Nutzung diverser Funktionalitäten tatsächlich ist.

Zu guter letzt..

..hoffe ich, dass ich einen Hilfestellung geben und vielleicht auch den ein oder anderen Aha-Effekt erzeugen konnte. Meiner Meinung nach ist gerade der Bereich Responsive Design ein sehr wichtiges Thema welches bei der CSS Gestaltung nie aus den Augen verloren werden sollte. Gott sei Dank haben wir heute durch die modernen Browser mittlerweile die Möglichkeit die Darstellung von Websites mit verschiedenen Auflösungen zu testen. Dies erleichtert deutlich die Websiteoptimierung in Richtung Responsive Design.

-Fernando Carlsson

Die W3C-Standards und die Browserkompatibilität

Browserkompatibilität in der Vergangenheit

Die Entstehung der W3C-Standards

Gott sei Dank befinden wir uns heute nicht mehr dort, wo das Webdesign sich noch vor einigen Jahren befunden hatte. Aber was war da eigentlich anders?

Nun – dazu holen wir am besten mal etwas weiter aus und gehen zurück ins Jahr 1994. Am 1. Oktober  1994 wurde das W3C Gremium zur Standardisierung von technischen Abläufen im World Wide Web gegründet. Die Gründung dieser Organisation war notwendig geworden, da zu dieser Zeit immer mehr Browser entstanden, welche begannen die notwendigen Techniken des Internets URI / HTTP und HTML auf Ihre eigene Art und Weise zu interpretieren. Es bestand die Gefahr, dass das Internet sich in mehrere eigenständige Netzwerke auftrennt, welche nicht mehr über den globalen Charakter des Internets verfügen würden.

Das daraus zwangsläufig sowohl freie als auch kommerzielle Bereiche entstehen könnten wollte man um jeden Preis verhindern. Ein Standard musste her – Eine Richtlinie, nach der die damals sehr neuen Techniken genutzt und interpretiert werden sollen.

Ein Jahr später – Es wurde eine neuere Version von HTML entwickelt. HTML 2.0 erwachte im November 1995 zum Leben. Zu dieser Zeit teilten sich der Netscape Navigator von Netscape Communications und der heutzutage sehr unbekannte Browser Mosaic – der Vorgänger vom Netscape Navigator, welcher bis 1997 entwickelt wurde – die Vorherrschaft über die Darstellung von Internetinhalten. Doch dies änderte sich im Laufe der folgenden Jahre gravierend! Der Internet Explorer trat im August 1995 erstmals mit auf dem Plan und wurde bereits drei Monate später über Microsofts Windows 95 kostenlos vertrieben. Es begann der Browserkrieg zwischen Netscape Communications und Microsoft!

Der erste Browserkrieg – Netscape VS Microsoft

Netscape Navigator VS Internet Explorer
Netscape Navigator VS Internet Explorer – Kampf ums Monopol

 

Zu diesem Zeitpunkt muss man sich bewusst machen, dass der Netscape Navigator über 80% des Marktanteils hielt und weiterhin anstieg. Microsofts Internet Explorer hingegen war neu und bezogen auf die Marktanteile völlig bedeutungslos. Da damals die Gefahr bestand, dass sich Netscape Communications zu einem ernsten Konkurrenten im Softwarebereich entwickeln hätte können, beschloss Microsoft die Marktanteile von Netscape so gering wie möglich zu halten.

Microsoft investierte pro Jahr mehr als 100 Millionen US-Dollar in die Entwicklung und Vermarktung des Internet Explorers. Das Internet-Explorer-Team welches am Anfang aus 5 Personen bestand wuchs über die Jahre auf bis zu 1000 Mitarbeiter! Dazu kommt noch, dass – wie oben bereits erwähnt – der Internet Explorer ziemlich schnell kostenlos über das Betriebssystem Windows 95 vertrieben wurde.

An diesem Punkt begann letztendlich der Anfang vom Ende – der den Webdesignern der Vergangenheit das Erstellen von gleichaussehenden und gleichfunktionierenden Websites für alle gängigen Browser zur Hölle machte.

Das lag daran, dass sich beide Unternehmen einen erbitterten Kampf um das Monopol lieferten. Um Ihre Positionen am Markt behaupten zu können wurden von beiden Seiten immer wieder neue Features zur Erweiterung des HTML – Standards erfunden, welche sich allerdings immer mehr nur noch auf den eigenen Browser bezogen. Zwar wurden die offiziellen Standards vom W3C zu Beginn noch von beiden Seiten gelebt, doch spielten diese im Laufe der Zeit immer mehr eine untergeordnete Rolle.

Die Verwahrlosung der W3C-Standards

Der Höhepunkt der Chaos begann, als der W3C die neue Technologie CSS, eine Auszeichnungssprache für HTML, einführte. Beide Unternehmen entschieden sich bewusste für die Abwendung von den empfohlenen Standards für CSS. Sowohl Netscape wie auch Microsoft begannen CSS auf Ihre eigene Art, inkompatibel zum jeweils anderen zu interpretieren.

Aufstieg und Fall des Browser-Monopol

Nach einem langen – und durch Microsofts sehr aggressiver Marktstrategie – brutalen Krieg stand die Entscheidung über den Sieger im Jahre 2003 fest! Microsoft hatte gewonnen – Netscape wurde vernichtend geschlagen. Der Marktanteil vom Netscape Navigator sackte in den 8-jährig andauernden Browserkrieg von 80% auf 4% ab. Der Internet Explorer hingegen wuchs in dieser  mit ca. 95% Marktanteil immer mehr zu einem
Browser-Monopol. Netscape Navigator erreichte nie wieder seine alte Stärke zurück und starb im Februar 2008 endgültig den Browsertod.

Da Microsoft ab diesem Zeitpunkt im Prinzip Monopolstellung genoss und die Konkurrenz ausblieb, ruhte sich Microsoft die nächsten Jahre auf seinem Produkt aus. Das damalige Entwicklungsteam wurde fast komplett aufgelöst. Die wenigen Mitarbeiter, welche noch für die Betreuung des Internet Explorers zuständig waren sollten sich um die Behebung von Sicherheitslücken kümmern. Die damalige Internet Explorer Version 6.0 weichte stark vom W3C-Standard ab und machte den Standard durch seine nur sehr schleppende Weiterentwicklung lange Zeit bedeutungslos.

Aufgrund des hohen Marktanteils wurden immer mehr Websites primär für den Internet Explorer hin optimiert. Andere Browser, welche sich an den W3C-Standard richteten, wurden bei der korrekten Darstellung der Webinhalte kaum noch berücksichtigt und hatten demzufolge oft das Nachsehen. Dies führte im Extremfall sogar dazu, dass Nutzer von anderen Browsern manche Seiten nur stark fehlerbehaftet und verzerrt darstellen konnten. Dies machte die Bedienung von diesen betroffenen Seiten so gut wie unmöglich. Auch Bereiche wie Online-Banking oder Online-Shopping waren davon betroffen.

Machtverlust durch neue Konkurrenz

Die schnelle Verbreitung des Internet Explorers 6.0 – bei eher langsamer Aktualisierung  rächte sich aber schnell. Immer mehr Computerviren und -würmer nutzen Sicherheitslücken im Internet Explorer aus und verbreiteten sich durch den hohen Marktanteil sehr schnell.

Langsam begann bei den Nutzern ein Umdenken. Die vielen gravierenden Sicherheitslücken schreckten viele ab und verleiteten diese zu der Nutzung von alternativen Webbrowsern, welche weniger anfällig waren. Der 2002 neu entwickelte Browser Firefox, welcher aus der Mozilla Foundation hervorging, gewann immer mehr Zuspruch – da dieser ebenfalls kostenlos erhältlich war, sich an den W3C-Standard hielt und zusätzlich über viele neue Features verfügte. Kurze Zeit später trat 2003 auch der Safari von der Firma Apple in die Browserwelt und wurde aus den gleichen Gründen insbesondere bei Mac-Nutzern sehr beliebt.

Firefox frisst IE CC-BY LordLocus
Firefox frisst den IE – Immer mehr Marktanteile gehen an Firefox CC-BYLordLocus

Insbesondere der Firefox machte es dem Internet Explorer schwer seine Marktposition halten zu können. 2004 knickte der Marktanteil des Internet Explorers schließlich erstmals spürbar ein und verlor einen Prozentpunkt an Firefox. Nach weiteren 5 Jahren sind es bereits 23% gewesen. Weitere 8% gingen zu dieser Zeit an den Safari. Weniger bedeutende Marktanteile holte u.a. der Opera, welcher im Jahr 2005 auch recht spät kostenlos angeboten wurde – und demzufolge kaum Marktanteile bis zum heutigen Tage halten konnte. Der zweite Browserkrieg führte im Laufe der Jahre dazu, dass immer mehr Anteile des Internet Explorers verlorengingen. Daran konnte dann auch das 2004 erneut zusammengetrommelte Entwicklungsteam zur Weiterentwicklung des Internet Explorers nichts mehr ändern.

Die Verbreitung von alternativen Browsern führte – zum Glück! – langsam dazu dass die W3C-Standards wieder gelebt wurden. Die bis 2005/2006 stark an den Internet Explorer angelehnte Programmierung der Websites galt nun als veraltet und verpönt – da viele Nutzer die umgestiegen sind diese veralteten Seiten nicht mehr nutzen konnten.

Browserkompatibilität heutzutage

Verteilung der heutigen Marktanteile

Machen wir nun wieder einen erneuten Zeitsprung in die Gegenwart. Heutzutage teilen sich die Browserriesen Chrome (ca. 30%), Firefox (ca. 23%) und Safari (ca. 17%) den Löwenanteil der Nutzer. Microsoft selbst hält mit dem Internet Explorer und Edge nur noch ca. 10% der Anteile. Der Rest geht zum größten Teil an die alternativen mobilen Webbrowser wie z.B. der Samsung Browser oder auch der Android Browser.

Top3 Browser Chrome Firefox Safari
Die Top 3 der Browser – An allen vorbeigezogen: Chrome von Google

HTML 5.1 – der neue Standard

Wie man sieht hat sich viel im Laufe der letzten Jahre getan. Und auch heute tut sich noch sehr viel – Die W3C-Standards entwickeln sich laufend weiter. Mittlerweile ist der HTML-Standard in der Version 5.1  verfügbar und mit dem Erscheinungsdatum des 1.11.2016 noch recht neu.

Heutzutage ist es eine der Kernaufgaben der Browserhersteller geworden ihre Browser „up to date“ zu halten. Es ist nicht mehr wie früher – den einen haushohen Marktführer gibt es nicht mehr. Keiner der Hersteller kann sich heutzutage große Fehler bei der Implementierung der HTML-Standards erlauben und ist demnach immer sehr bemüht mit der Unterstützung der aktuellsten Standards schnellstmöglich gleichzuziehen.

Wenn es heutzutage um Browserkompatibilität geht sind daher folgende Punkte zu nennen, die das Thema umfassend beschreiben:

  1. Die gängigsten Standards beherrschen alle aktuellen Browser.
  2. Die neue Technologie WebGL und all Ihre Features wird z.Zt. noch nicht von allen Browsern unterstützt.
  3. Responsive Design – die korrekte und sinnvolle Darstellung von Webinhalten auch auf mobilen Endgeräten sollte beachtet werden.
  4. Vor Nutzung neuester Features sollte geprüft werden, ob alle Browser diese auch unterstützen.

Wie man sieht ist auch heute Browserkompatibilität immer noch ein Thema! Die Unterschiede sind nur nicht mehr so gravierend wie früher, da die gängigsten Standards heutzutage – Gott sei Dank! – gelebt werden. Sobald es aber um neueste Features geht muss aufgepasst werden – denn alles braucht seine Zeit. Gerade die Umsetzung und Einbindung von neuen Inhalten in den aktuellen Browserversionen geschieht nicht von heut auf morgen. Daher ist auch heute noch nicht alles perfekt und wird es durch die immer weiter fortschreitende Entwicklung auch nie sein.

Daher ist es die Aufgabe eines guten Webdesigners in diesen Bereichen ein Fingerspitzengefühl bei der Auswahl der richtigen Funktionalitäten – je nach Anforderungen – zu haben. Bei Functioncloud können Sie sich darauf verlassen, dass dies gewährleistet wird. Neue Funktionalitäten können z.B. unter Websites wie http://www.caniuse.com bezüglich der Kompatibilität mit allen gängigen Browsern abgeglichen werden. Auch gehört es heute zum Dogma eines guten Webdesigners sich an das Responsive Design zu halten. Eine aktuelle Website sollte in der Lage sein ihre Webinhalte sowohl auf mobilen Endgeräten wie auch auf Desktoplösungen optimal darstellen zu können.

Die Zukunft des Internets – Neue Standards

Schön und gut.. wir wissen nun woher wir kommen und wo wir und jetzt befinden. Aber wohin wird die Reise in Zukunft gehen? Führende Experten sehen die Zukunft des HTML Standards in einer noch stabileren / umfangreicheren Implementierung von 3D-Inhalten. Womöglich verschmelzt die Art und Weise der interaktiven Bedienung irgendwann mit einer virtuellen 3D Umgebung die man – ähnlich wie in einem Spiel betreten und erforschen kann. Auch wenn dieses Szenario in Zukunft wohl eher die Ausnahme als die Regel sein wird – seinen Weg ins Internet wird es mit Sicherheit finden. Und wer weiß schon was wir in 10 Jahren unter interaktiven Websites verstehen. Ich denke wir dürfen gespannt sein.

Zu guter letzt..

..hoffe ich, dass ich einen guten Einblick in das Thema die Entstehung der
W3C-Standards geben konnte. Meiner Meinung nach war es eine der notwendigsten und wichtigsten Entscheidungen, welche zugunsten des Internets getroffen wurde. Womöglich hätten wir ohne dieses Gremium heute noch gravierende Probleme bei der kompatiblen Darstellung von Webinhalten auf verschiedenen Browsern.

Das Thema Browserkompatibilität wäre dann womöglich noch um einiges komplexer.. Komplexer als es zum ersten Browserkrieg ohnehin schon war..

-Fernando Carlsson