- Januar, 2008
-
Firefox unterschiedlich guter Browser je nach Version (von 2.0.0.3 bis 2.0.0.11)
Den Firefox nutze ich seit langem als Standardbrowser, weil er einige Möglichkeiten mehr bietet, als der Mozilla, den ich vorher verwendet habe. Bis vor kurzem war das auch kein Problem, weil er stabil meist alles tat, was er soll. Auf meinem normalerweise genutzten Samsung M70-Laptop mit Gentoo und dem Firefox 2.0.0.3 ist der Firefox, nach wie vor, zuverlässig und problemlos. Je nach Version gibt es jedoch deutliche Probleme, die den Firefox die vom Internet Explorer gewonnenen Marktanteile wieder kosten könnten. Den Firefox 2.0.0.8 habe ich gar nicht erst probiert, denn da wurden sofort einige Fehler bekannt und laut Jens Grochtdreis kam noch hinzu: "Dieser führt dazu, daß Float-Layouts mit negativen Margins kaputt aussehen, weil die normalen Clearingmethoden nicht mehr greifen." Klasse beim Firefox ist, wie schnell etwas verändert wird. Bereits nach etwa zwei Wochen kam die Version 2.0.0.9 in der, der Float-Bug behoben war. Auf meinem Zweitrechner hatte ich die 2.0.0.9, die war in Ordnung und kurz danach habe ich auf Firefox 2.0.0.10 aktualisiert. Von der 2.0.0.10 war ich nur genervt, weil sie völlig unstabil war. Daher habe ich recht schnell die 2.0.0.11 installiert und leider gibt es grad noch keine aktuellere Version. Mit der 2.0.0.10, die wir auf mehreren Rechner hatten, konnte man gar nicht vernünftig arbeiten. Die 2.0.0.11 ist nicht ganz so schlimm, aber verglichen mit der 2.0.0.3 nervt sie trotzdem. Sie kommt einigermaßen damit klar, wenn nicht mehr als fünf Tabs offen sind und solange man sich auf möglichst standardkonformen Seiten bewegt, die wenig bis kein Javascript nutzen. Ich finde standardkonform wirklich gut und fände es auch prima, wenn es da immer mehr Seiten gäbe. Wenn jedoch ein Browser zur Zeit, bei allem was nicht sauber erstellt wurde, abstürzt, dann bleibt nicht viel übrig. Jedesmal einen kompletten Absturz, wenn etwas kaputt ist oder falls eine Seite ein Video enthält, das kann nicht sein. Bei mir stürzt die Firefox 2.0.0.11 wirklich ständig ab, noch deutlich häufiger als es bei meinen Jungs passiert. Wahrscheinlich ist meine Art den Firefox zu nutzen, besonders ungünstig:Firefox nutzen
Mein Firefox hat einige zusätzliche Add-ons:- Web Developer (essenziell, um Webseiten zu entwickeln)
- Adblock Plus (damit kommt fast gar keine Werbung mehr durch)
- Bookmark Duplicate Detector (praktisch, um doppelte Lesezeichen zu vermeiden)
- Bookmarks LinkChecker (ab und zu mal Lesezeichen putzen und rauswerfen, was es nicht mehr gibt)
- ColorZilla (geht jedoch nicht in der aktuellen Version mit 2.0.0.3, aber mit 2.0.0.11)
- Colour Contrast Analyser (Farbkontraste der benutzten Farben prüfen)
- DOM Inspector (für schnelle Checks von Problemen auf Webseiten sehr praktisch)
- Live PageRank
- SearchStatus (zwei Tools zum PageRank, weil beide ab und zu mal ausfallen, eins geht meist)
- PDF Download (auf Linux sinnvoll, damit ein PDF direkt nach dem Runterladen geöffnet wird)
- Screen grab! (Screenshots sind auch von ganzen Seiten in voller Länge möglich, brauche ich nicht oft, aber ab und zu ganz praktisch)
- Firebug (hab ich deaktiviert, weil er hier im Moment nicht läuft)
- MediaPlayerConnectivity (für manche Seiten braucht es Kaffeine, für andere den RealPlayer usw. mit dieser Erweiterung kann man das festlegen)
Anker und Firefox
Roman beschreibt auf yoda.ch heute von Problemen mit: dem Anchor-Tag (Anker) und Firefox in Version 2.0.0.11. Er meint, dass das Setzen von Ankern über das name-Attribut in diesem Firefox nicht funktioniert. Das kann ich so nicht bestätigen: In dem folgenden Beispiel sind Anker definiert, diese Beschreibung gilt für XHTML, welches IDs verlangt, in HTML geht das mit dem name-Attribut. Ein Anker ist ein Element, welches einen Link auf eine bestimmte Stelle innerhalb einer HTML-Seite ermöglicht. Um einen Anker zu nutzen muss einem Element an der gewünschten Stelle eine ID (id="ankertext") gegeben werden. Anschließend kann mit dem Linkpfad und der Raute mit dem Ankertext (#ankertext) am Ende des Pfads eine Sprungstelle angegeben werden. Ich definiere meist eine ID in der h1:<h1 id="anfang">Überschriftentext</a></h1>
und dann, da wo ich es möchte einen Link zum Seitenanfang:<p class="anfang"><a href="#anfang">zum Seitenanfang</a></p>
Wer ganz sicher gehen will, dass das Ganze auch für ältere Screenreader funktioniert, sollte ID und name definieren:<a > name="sprungziel" id="sprungziel">Linktext</a>
Wer nicht XHTML sondern HTML nutzt, verweist mit demselben Link auf einen Anker, also z.B:<p class="anfang"><a href="#anfang">zum Seitenanfang</a></p>
Statt eine ID in der Überschrift, wird jedoch name benutzt:<h1><a name="anfang">Überschriftstext</a></h1>
Soweit ich Roman verstanden habe, hat er das Anker setzen mit XHTML und dem name-Attribut auf Firefox 2.0.0.11 getestet. Wie oben ausgeführt möchte ich diese Version bestimmt nicht verteidigen, aber ein Ankerproblem kann ich nicht bestätigen. Bei meinen Tests wurden alle Anker, die wie beschrieben definiert sind, auch angesprungen.Nachtrag ergänzt
Inzwischen habe ich verstanden, was eigentlich gemeint war, nämlich ein bereits vordefinierter Anker einiger Browser. Beispielsweise fügen Internet Explorer selbstständig einen #top-Anker ein, den man nicht mehr selbst setzen muss. Ich mag es nicht sonderlich, wenn Browser selbst denken, mehr zu den Gründen gibt's demnächst in einem anderen Beitrag.Fazit
Die Logs auf unseren Seiten, lassen vermuten, dass einige unserer Besucher ähnliche Erfahrungen mit einer instabilen 2.0.0.11 haben, denn Firefox 2.0.0.3 wird häufiger genutzt als die aktuelleren Versionen einschließlich der 2.0.0.11. Auch wenn ich das Ankerproblem nicht nachvollziehen kann, ärgert mich doch die Instabilität der aktuellen Firefox-Versionen. Denn leider kam sie nahezu zeitgleich mit der verstärkten Nutzung des IE 7 (Internet Explorer Version 7). Ich war froh, dass Firefox seinen Marktanteil gegenüber IE deutlich verbessert hatte, denn gerade der völlig veraltete IE 6 zwingt zu vielen speziellen Definitionen beim Webseitenerstellen. IE 7 hat immernoch viele Probleme und ist sicherlich nicht der Weisheit letzter Schluss. Einige Probleme fallen jedoch vor allem den Webautoren, nicht Nutzern auf. Wenn Firefox gerade dann mit Problemen ausgeliefert wird, ist zu befürchten, dass einige, die ihn nutzten wieder zum IE zurückkehren. Das wäre sehr schade, denn ich bin überzeugt, dass die Verbesserungen die IE 7 gegenüber IE 6 hat, ebenso wie die Bemühungen für den bald kommenden IE 8, damit zu tun haben, dass der IE deutlich an Marktanteilen verloren hatte. Ich hoffe, dass bald eine neue Firefoxversion erscheint, die wieder die Stabilität der 2.0.0.3 hat. -
Updates, Upgrades nur wegen der Sicherheit; lohnt sich das?
Passwörter auslesbar bei einer Hochschule
Passwort auslesbar
Webseite gehackt
Blog gehackt
Webseite gehackt, am 12.1.
-
Google & Co ::: was ist doppelter Inhalt (Double Content)?
Vor kurzem tauchte mal wieder die Frage auf: Was ist für Suchmaschinen wie Google doppelter Inhalt (Double Content)? Es gibt eine Webseite mit dem Seiteninhalt: "Das ist der tolle Text der Startseite...".Dieser identische Inhalt ist erreichbar unter: http://www.domain.tld http://www.domain.tld/dateiname.dateinendung http://domain.tld http://domain.tld/dateiname.dateinendung Eine einzelne Seite ist also unter vier Adressen erreichbar. Eine Suchmaschine ist einfach nur ein Programm, welches prüft, ob sich Inhalte unterscheiden, wenn es um doppelten Inhalt geht. Die Suchmaschine sagt sich also: da steht viermal das Gleiche.Welche Nachteile kann doppelter Inhalt haben?
Bei Google hat man, mit etwas Glück, inzwischen keine Nachteile mehr, da sich Google an diejenigen angepasst hat, die nicht darauf achten. Eine Garantie ist das jedoch nicht. Besser ist es, wenn man sich selbst darum kümmert, dass es keinen doppelten Inhalt gibt. Bei anderen Suchmaschinen als Google, weiß man erst recht nicht, ob sie empfindlicher reagieren. Daher sagt der Googlebot: "wenn du mich reinlegen willst, gut, mach das; aber ich lasse mir das nicht gefallen." "Ich ignoriere dich einfach, weil du mir zwei- drei- oder viermal das Gleiche unterjubeln wolltest um besser platziert zu werden. Anders gesagt: Google wertet eine Seite ab oder ignoriert sie schlimmstenfalls, wenn die Gefahr besteht, dass jemand doppelten Inhalt für ein besseres Ergebnis eingestellt hat. Das ist im Grunde, für alle ernstzunehmenden Webauftritte, ein Vorteil, denn seit Suchmaschinen so reagieren, gibt es nicht mehr so oft irrelevante Ergebnisse von Seiten, die unter vielen verschiedenen Domains den gleichen Inhalt boten. Noch vor etwa zwei Jahren gab es einige Betreiber, deren Seiten mit identischem Inhalt die ersten zwanzig Suchergebnisse füllten.Webverzeichnisse
Google ist zumindest in Deutschland derzeit Marktführer. Um das zu bleiben muss Google darauf achten vernünftige Ergebnisse zu liefern, sonst nutzen die Menschen irgendwann wieder vor allem handverlesene Webverzeichnisse. Ein von Menschen geprüftes Webverzeichnis hat logischerweise sinnvollere Inhalte, als es mit Programmen von Suchmaschinen möglich ist. Das größte Verzeichnis, welches von Menschen gepflegt wird ist dmoz.org. Der Nachteil von Internetverzeichnissen dieser Art ist, dass es viele Menschen geben muss, die ständig Webauftritte prüfen, um zu entscheiden, ob sie in das Verzeichnis aufgenommen werden. Google ist mit seinem Googlebot (die Suchmaschinenprogramme werden auch Roboter genannt oder kurz Bot) natürlich deutlich schneller und kann wesentlich mehr Seiten in kürzerer Zeit aktuell in den Ergebnissen aufführen, als ein Webverzeichnis. Google hat derzeit mehrere Milliarden Seiten im Index, bei dmoz sind es weniger als fünf Millionen. Google nutzt jedoch unter anderem die Ergebnisse von dmoz.org und bewertet dort gelistete Seiten als hochwertiger, verglichen mit denen, die nicht dort erscheinen.Lösungswege
Um das www immer anzuzeigen die .htaccess anpassen:#immer mit www RewriteEngine on RewriteCond %{HTTP_HOST} !^www\.miradlo\.net$ RewriteRule ^(.*)$ http://miradlo.net/$1 [L,R=301] Links innerhalb des Webauftritts, der Navigation usw. sollten nicht so:
<a href="../index.php">Startseite</a>
sondern besser so geschrieben werden:<a href="../">Startseite</a>
Weitere Hinweise zur .htaccess und vielem mehr gibt es bei selfhtml.Googles Duplicate Content
...und immer noch aktuell Googles eigene Aussagen zu Duplicate Content: Strafe bei doppeltem Inhalt?
Seite 1 von 1, insgesamt 3 Einträge
...zuletzt schrieb: