Montag, 8. Februar 2010

JPA: NamedQueries contra IDE

Es ist schön, dass JavaEE heute nicht mehr bedeuten muss, jede Menge XML und Java-Code synchron zu halten. Dank Annotations konnte dieses Wartbarkeitsdesaster deutlich reduziert werden. Trotzdem habe ich oftmals noch nicht das Gefühl, dass JavaEE weit genug geht. Immer noch gibt es Stellen, die bei Änderungen Probleme machen. Warum gibt man dem Compiler keine Chance?

Ein schönes (bzw. ärgerliches) Beispiel für eine solche Situation stellen die NamedQueries von JPA dar. Man darf heute Annotations schreiben statt XML, aber eine Refactoring-Unterstützung durch den Compiler ist immer noch nicht gegeben. Nehmen wir mal folgende Entity:


   @NamedQueries({
      @NamedQuery(name="selectAll",
                  query="select e from Employee e"),
      @NamedQuery(name="selectNames",
                  query="select e.name from Employee e")
   })
   @Entity
   public class Employee { ... }



Das Problem liegt offensichtlich darin, dass wir keinerlei Compiler-Unterstützung hinsichtlich der Query-Namen erwarten können:


   em.createNamedQuery("selectQll");


... ergibt keine Compiletime-Fehlermeldung. Noch dazu: Die Bezeichnung "selectAll" liegt in einem globalen Namespace. Wir müssen also überhaupt erst die Entity finden, bei der die NamedQuery definiert ist. Man nennt die Query also vielleicht besser "employee.selectAll". Dann sollte man allerdings nicht vergessen, das per Hand zu ändern, falls die Klasse Employee irgendwann umbenannt wird. Oh je.

Aus meiner Sicht hätte es hier eine Reihe von Möglichkeiten gegeben, den Compiler einzuspannen. Zum Beispiel so:


  public enum EmployeeQueries {
/** Selects all employees */
@EnumQuery(query="select e from Employee e")
    SELECT_ALL,
/** Selects the names of all employees */
@EnumQuery(query="select e.name from Employee e")
    SELECT_NAMES
};

Wobei JPA etwa folgende Annotation bereitstellen könnte:

@Target(ElementType.FIELD)
@Retention(RetentionPolicy.RUNTIME)
public abstract @interface EnumQuery {
public abstract String query();
  ...
};


Die enum "EmployeeQueries" darf hierbei eine Top-Level-Klasse sein, oder auch innerhalb einer Entity definiert werden.

Vorteile wären:

  • Compiletime-Überprüfung
  • Automatisches Refactoring
  • Automatische Ergänzung (z. B. in Eclipse nach Eintippen von "EmployeeQueries." Damit erhält man erstens eine Auflistung der verfügbaren Queries, und zweitens eine direkte Einblendung der Javadoc pro Query.)


Ich persönlich glaube, dass solche Tool-Unterstützung nicht nur die Produktivität erhöht, sondern vor allen Dingen die Fehlerwahrscheinlichkeit deutlich senkt. Dazu muss man einmal die Anzahl der Schritte vergleichen, die ein Entwickler in beiden Fällen durchführen muss:

  • JPA NamedQueries: 
  1. createNamedQuery() schreiben
  2. Entity-Klasse suchen
  3. Query in der Entity-Klasse suchen
  4. Javadoc zur Query suchen (falls es überhaupt eine gibt - denn die Queries sind schließlich keine Java-Elemente, sondern nur als Annotations vorhanden - also falls ja, dann befindet sie sich wohl irgendwo in der Javadoc für die gesamte Entity-Klasse)
  5. Zurück zur richtigen Query
  6. Namensattribut kopieren
  7. Zurück zu createNamedQuery(...) (wo war das jetzt nochmal?)
  8. Namen einfügen
  9. Mit dem weitermachen, was man sich überlegt hatte
  • EnumQuery (oder ähnliche Lösungen):
  1. createNamedQuery() schreiben
  2. Mit den Pfeiltasten eine Query selektieren, dabei Javadoc direkt ablesen
  3. Weitermachen
Es könnte so schön sein (und es wär doch gar nicht soo schwierig gewesen, oder?)

Dienstag, 29. September 2009

Der Nummer 1 Faktor für Software-Qualität

Software wird von Menschen gemacht. Die Qualität steht und fällt mit der Qualität der Arbeitsweise der Entwickler. Eine Spezifikation - gleich auf welcher Ebene - ist immer nur ein Zwischenschritt. Selbst ein geschriebenes Stück Code ist ein Zwischenschritt, solange die Entwicklung eines Softwaresystems nicht beendet wurde. Als Entwickler baut man anhand dieser Zwischenschritte etwas neues - doch wie gut das Produkt wird, hängt von der bestehenden Qualität, sowie von der Qualität des neu geschaffenen ab.

Warum ist es nicht möglich, Software völlig ohne Zwischenschritte zu entwickeln? Der Grund liegt meiner Meinung nach in der Beschränktheit unseres Konzentrationsvermögens auf einige wenige Dinge. Oft wird gesagt, dass unser Kurzzeitgedächtnis ca. 7+-2 Dinge ("chunks") gleichzeitig aufnehmen kann. Ob das nun genau so stimmt, oder nicht - nehmen wir es einfach mal als Arbeitshypothese (man könnte genau so gut z. B. auch die Kurzspeicherkapazität heranziehen).

Je näher die Zwischenschritte zusammenliegen, und je weniger Zwischenschritte man zusammenfügen muss, desto weniger muss das Kurzzeitgedächtnis belastet werden. Das sind zwei konkurrierende Ziele, denn:
  • Liegen die Schritte weit auseinander, braucht man viel Kapazität, um Neues zu schaffen.
  • Liegen die Schritte nah beieinander, ist es hingegen leider oft nötig, viele der bestehenden Schritte gleichzeitig zu kombinieren - und zwar in der richtigen Art und Weise. Auch das braucht viel Kapazität.
Versucht man hingegen, nur wenige nahe beieinander liegende Schritte zu kombinieren (um Kurzzeitgedächtnis zu sparen), ist es meist nicht möglich, daraus die gewünschte Funktionalität zu schaffen.

Beispiel: Web-Interface, Suche in einer Datenbank

Benutzer sendet Suchanfrage über ein Textfeld auf der Seite, Anfrage wird überprüft, geht an Datenbank (wird dabei gefiltert für den Benutzer), Ergebnis kommt zurück und soll seitenweise dargestellt werden.

Besteht der beschriebene Weg aus vielen kleinen Schritten, müssen diese alle kombiniert werden. Besteht er aus wenigen großen Schritten, muss normalerweise jeder Schritt stark konfiguriert werden (z. B. bei Nutzung eines relativ generischen Moduls für Datenbankabfragen etc.).

In beiden Fällen muss unterm Strich viel koordiniert werden, denn wenige kleine Schritte reichen nicht aus. Nun kann man selbstverständlich den Weg durch divide-and-conquer aufspalten, und ich bin ein großer Fan dieser Methode. Doch gerät dieser Ansatz dort an seine Grenzen, wo man eben doch wieder eine gewisse kleine Menge an Hintergrundwissen über den abgespaltenen Teil benötigt. Das sollte zwar wenig sein, reicht aber oft leicht, um die 7+-2 zu erreichen. Wenn der gesamte Weg fehlerfrei beschritten werden soll, ergibt sich eine Konsequenz: Je besser man in der Lage ist, das Kurzzeitgedächtnis fehlerfrei einzusetzen, und den Überblick zu behalten, desto besser wird das Ergebnis sein.

Nun ist es zum Glück so, dass wir Menschen mit einem relativ ähnlichen Kurzzeitgedächtnis ausgestattet sind - einige Prozent hin oder her bedeuten keinen allzu großen Unterschied. Das bedeutet auch, dass man sich auf diese Weise nicht herausreden kann. Es kommt in erster Linie auf den Einsatz dieser Fähigkeit an - und ich bin überzeugt, dass dieser Einsatz optimierungsfähig ist.

  1. Die Arbeitsumgebung. Wichtig ist hier, alles so einzurichten, dass man sich um nichts mehr kümmern muss, sobald man an einem Problem arbeitet. Da man bei der Lösung von schwierigen Problemen 100% seines Kurzzeitgedächtnisses (und volle Konzentration) braucht, wird man es in dieser Situtation nicht mal mehr schaffen, in der Taskleiste nach dem richtigen Programm zu suchen, ohne dass etwas, das man sich eben gemerkt hat, zwangsläufig (nicht etwa durch Konzentrationsschwäche!) aus dem Gedächtnis entfernt werden muss. Dadurch wird ein Fehler geradezu herbeigeführt. Alles muss bereits an seinem Platz sein (Tip: zwei oder mehr Monitore verwenden, Fenster sinnvoll anordnen, Multiple Desktops verwenden). Wenn das nicht möglich ist, muss man die Zahl der gleichzeitig gemerkten Dinge reduzieren. Hier kann ein Refactoring hin zu sinnvolleren Zwischenschritten helfen, bevor das eigentliche Problem gelöst wird.
  2. Die persönliche Konzentration. Bei der Erledigung von schwierigen Aufgaben muss man den Rest der Welt vergessen, so lange bis die Aufgabe erledigt ist. Tief durchatmen, genau festlegen, was zur Aufgabe gehört oder nicht, und dann die Sache durchziehen wie bei einem Marathonlauf (wer würde während solch eines Laufs tatsächlich schnell mal Facebook checken?) Klingt hart? Ja, ist es. Aber als Belohnung muss man sehr viel weniger Bugs fixen. Und man erhält meist eine Lösung, die besser mit dem Rest des Systems harmoniert.
Fazit: Die effiziente Nutzung des Kurzzeitgedächtnisses unter maximaler Konzentration ist für mich der Nummer Eins Faktor für Software-Qualität. Ich wünsche mir, dass Entwicklungsumgebungen, sowie auch Betriebssysteme den Entwickler hier in Zukunft noch stärker unterstützen werden. Ebenso muss es möglich sein, die ansonsten hoffentlich sehr lockere, soziale und kommunikative Arbeitsumgebung für diese Zeiten anzuhalten, ohne dabei ein schlechtes Gewissen haben zu müssen. Selbst wenn's mal einen ganzen Tag oder zwei dauert.

Donnerstag, 17. September 2009

Java vs. Skripting

Diese Situationen ergeben sich immer wieder: Man braucht mal schnell ein Skript, um kurz und schmerzlos einen Vorgang zu automatisieren, oder ein wirklich unkompliziertes Programm zu erstellen. Ok, schreiben wir's schnell als Bash-Skript. Oder Perl-, PHP-, Python-Skript. Möglichst wenig Overhead.

Das Skript ist schnell fertig - aber was heißt schon "fertig"? Hier noch ein kleines Feature, da noch eine Option. Und als Ausgabe vielleicht doch irgendwann XML statt Plaintext, damit man das Ergebnis auch strukturiert weiterverarbeiten kann. Als nächstes wär's schön, wenn man das Tool auch online nutzen könnte. Und es muss auch mal damit zurechtkommen, wenn ausnahmsweise zwei Leute gleichzeitig darauf zugreifen.

Dann geschieht's: Es stellt sich heraus, dass ein Baustein aus dem Tool recht praktisch ist - den könnte man auch an anderen Stellen gut wiederverwenden, also eigentlich ein Library-Kandidat! Und andererseits wär's für das Tool interessant, wenn es bereits bestehende Teile aus der eigenen Library nutzen könnte. Ach, hätt ich's doch bloß gleich in Java geschrieben!

Es scheint mir schon fast egal zu sein, wie trivial das Programm am Anfang ist. Ich frage mich: Ist es denn nicht meist besser, den prozentual betrachtet anfangs zwar hohen, aber absolut gesehen vernachlässigbar geringen zusätzlichen Overhead in Kauf zu nehmen - und für die kleinen Tools die selbe Sprache zu verwenden, wie für die großen Programme? (Egal ob jetzt z. B. Java oder C# - und wenn man sowieso alles in Python macht, dann spricht sicher nichts gegen Python-Skripting!)

Montag, 14. September 2009

Zwei Monitore vs. ein Monitor

Zwei Monitore sind besser als einer, das ist offensichtlich. Das gilt sogar für zuhause! Natürlich gibt es einige Nachteile:

  • Platzverbrauch auf dem Schreibtisch
  • Zuhause zwei Bildschirme nebeneinander stehen zu haben, sieht schon ein wenig übertrieben aus
  • Und natürlich die zusätzlichen Anschaffungskosten

Dafür kann man halt mehr Anwendungen auf einmal am Bildschirm haben. Braucht man nicht? Ich dachte mir bis vor kurzem noch: Im Büro brauch ich das, aber daheim? Letztendlich hab ich mich dann doch dazu durchgerungen, meine Bildschirmfläche zu erweitern[*] Und obwohl ich manchmal den Kauf eines weiteren Geräts im Nachhinein für überflüssig halte, geht es mir hier nicht so. Denn der größte Vorteil an zwei Bildschirmen ist mir überhaupt erst jetzt bewusst geworden: Das Arbeiten - fast egal, was man macht - wird wesentlich entspannter! Es ist also nicht nur bequemer, sondern das Hin- und Herschalten zwischen Fenstern führt zu spürbarem Stress. Insbesondere, wenn man zwei Dinge vergleichen will, oder wenn man in einem Fenster recherchiert, während man im anderen etwas schreibt (z. B. Quellcode, oder einen Blog). Und das passiert öfter, als ich dachte, sogar beim eher gemütlichen Surfen. Deshalb würde ich nun gerade auch zuhause nicht mehr auf den Zweitbildschirm verzichten wollen.

[*] um 1920x1080 mit dem LG 2343 T-PF, ein abgesehen von der vertikalen Blickwinkelstabilität überraschend guter Monitor für ca. 180€. Insbesondere verursacht das Gerät keinerlei Pfeifgeräusche, was leider aktuell bei sehr vielen Monitoren eine herstellerübergreifende Plage zu schein seint.

Sonntag, 6. September 2009

Google Chrome oder Mozilla Firefox

Jetzt, wo ich TabKit gefunden hab, komm ich wohl kaum noch von Firefox los! Aber eins stört mich an diesem Browser: Es kommt immer wieder vor, dass dieser sehr viele Ressourcen (CPU Load) benötigt. Und ich kann nicht herausfinden, welches Tab nun wieder schuld ist.

Das scheint nur mit Browsern möglich zu sein, die auf Basis von Prozessen (im Gegensatz zu Threads) arbeiten - also z. B. Google Chrome. Zuerst mal wusste ich gar nicht, dass es diesen Browser schon für Linux gibt, aber siehe da. Und noch dazu ist dieses "Early Access Release" für Debian/Ubuntu-Nutzer sehr einfach zu installieren. Funktioniert für mich bis jetzt auch so gut wie ein fertiges Produkt. Auffällig: Unheimlich schnell. Und mein KDE-"System Activity" zeigt für alle Tabs einen eigenen Prozess an - endlich! So lässt sich der Übeltäter entlarven.

Das was jetzt eben noch fehlt, sind gute Add-Ons. Am unentbehrlichsten ist für mich wie gesagt momentan eine Extension, die Tabs in Baumansicht darstellt.

Und: Ich hoffe, dass sich in der Linux-Version von Chrome auch bald Flash installieren lässt!

Samstag, 5. September 2009

Ordnung beim Websurfen - auch mit vielen Tabs

Es war einmal ein Browserfenster. 1998. Ich treibe von einem Link zum nächsten. Komme ich in eine Sackgasse, dann ist der Back-Button immer zur Stelle.

Doch immer öfter macht es Sinn, von einer Verteilerseite (z. B. Nachrichten-Homepage) aus möglichst alle - oder alle interessanten - Links zu besuchen. Also immer schön einen Link anklicken, lesen, und dann möglichst sofort zurück. Gehe ich bei einem Thema in die Tiefe, wird's schwierig.

Bald schon stellt sich heraus, dass das mit zwei Browserfenstern besser funktioniert: Ein Fenster für die Verteilerseite. Dort jeweils einen Link anklicken mit der Option "in neuem Fenster öffnen". Vorteil: In dem neuen Fenster kann ich herumbrowsen, wie's mir gefällt. Sobald ich mit dem Thema fertig bin, schließe ich das Fenster, und kann auf der Verteilerseite mit dem nächsten Link weitermachen.

Doch es tauchen zwei Probleme auf:
  1. Das Tiefenproblem: Beim herumbrowsen treffe ich auf weitere Verteilerseiten. Nach Schema F öffne ich also von dort aus ein drittes Browserfenster. Wie lange wird es dauern, bis ich von dort alles "abgearbeitet" habe? Werde ich gar noch eine vierte Ebene brauchen? Werde ich mich dann noch an die ursprüngliche Verteilerseite erinnern, und an das Ziel, das ich dort verfolgte?
  2. Das Breitenproblem: Warum also nicht gleich, während ich auf der Verteilerseite bin, alle interessanten Links in neuen Fenstern öffnen? Doch das sich ergebende Fensterchaos will gemeistert werden!
Ich glaube, das Tiefenproblem lässt sich kaum lösen (außer eben, es durch das Breitenproblem zu ersetzen). Es kommt einfach daher, dass das Web eine nicht zu vernachlässigende Größe hat. Selbst wenn ich mein Interesse einschränke, lässt sich der Kampf gegen die Informationsflut auch in eher kleinen Nischen nicht gewinnen. Es hilft dann nur ein herzhaftes "Jetzt ist Schluss damit". Ein paar gute Seiten als Bookmark setzen, und diese wirklich sinnvoll einordnen (und heutzutage: taggen).

Für das Breitenproblem hingegen gibt es Lösungsansätze. Zum einen haben inzwischen wohl alle Browser das Tabbed Browsing-Konzept entdeckt (ein bestimmter Browser hat dafür ein bisschen länger gebraucht...) Ich kann also das oben beschriebene Spiel mit Tabs statt mit Fenstern machen. Gut für die Taskleiste, aber sonst bringt das wenig. Aber: Ich kann nun die Hauptverteilerseite nehmen, und von dort aus alle Links in neuen Fenstern öffnen. In diesen Fenstern dann aber nur noch Tabs verwenden. Das reduziert das Problem um eine Stufe. Mehr nicht! Aber immerhin.

Eine zusätzliche Stufe gewinne ich durch Multiple Desktops. Bei Linux ganz normal, bei Mac inzwischen auch ("Spaces"), und bei Windows gibt es immerhin einige - nicht allzu tolle - Programme, die diese Pflichtfunktion hinzufügen. Unter Kubuntu Linux sieht das bei mir so aus:

Acht kleine Desktop-Icons direkt neben der Taskleiste, jedem ist ein Thema zugewiesen. Auf jedem Desktop kann ich Fenster haben. In jedem Fenster kann ich Tabs haben. Mir geht es allerdings so, dass das nur gut funktioniert, wenn die Themen der Desktops langfristig konstant bleiben. z. B. links oben immer für News, rechts oben immer für meinen Blog, usw.

Jetzt haben wir September 2009. Und das bisherige System reicht nicht mehr ganz. Deshalb hab ich nach etwas neuem gesucht, und etwas irrsinnig interessantes entdeckt: Das Firefox-Add On Tab Kit. Ich bin noch nicht richtig daran gewönt, aber ich vermute, dass ich nie wieder davon loskommen werde. Tabs werden vertikal dargestellt (somit kann man gleich schonmal mehr vom Seitentitel lesen) und in beliebig vielen Stufen automatisch beim Öffnen gruppiert - je nachdem, von welcher Seite aus das Tab geöffnet wurde. Somit ergibt sich ein übersichtlicher Baum. Noch dazu gibt es eine farbliche Abgrenzung auf der obersten Ebene. Also wer Firefox hat, und Ordnung beim Websurfen braucht, es lohnt sich, das auszuprobieren. Ich würde fast sagen, es reduziert das Chaos erheblich.



P. S. Es gibt eine ähnliche Extension, die ich allerdings noch nicht ausprobiert habe: Tree Style Tab. Sieht auch sehr gut aus!

Freitag, 4. September 2009

Online-Filmverleih vs. DVDs

Irgendwie macht's ja ein bisschen Spaß, in der Videothek nach einer DVD zu stöbern. Andererseits ist es schwierig, dort etwas zu finden, insbesondere was, das einem gefällt, wenn man nicht eh schon einen bestimmten Titel im Sinn hat.

Deshalb find ich's auch toll, dass es sowas mehr und mehr online gibt, dort hat man nämlich Filter- und Suchmöglichkeiten, und kann sich auch Bewertungen durchlesen. Das Problem dabei ist nur, dass man die Filme dort (so ähnlich wie früher bei VHS) immer nur in der Sprache des Landes bekommt, von dem aus man die Seite abruft. Versucht man dann z. B. einen Stream aus den USA zu beziehen, heißt es fast immer nur: "Sorry, this video is not available for your region". Eigentlich find ich das DVD-Format gerade deshalb so toll, weil fast immer auch die Originalsprache mit drauf ist. Und deutsche Übersetzungen von Filmen bzw. Serien sind leider allzu oft unerträglich.

Eine sehr löbliche Online-Streaming-Ausnahme ist hier natürlich www.southparkstudios.com. Ich würde mir wünschen, dass sich da viele ein bisschen was abschauen würden.

Nun plant auch YouTube solch einen Dienst:
http://www.basicthinking.de/blog/2009/09/03/399-dollar-pro-film-youtube-plant-den-online-filmverleih/

Liebes YouTube, wenn du einen Online-Filmverleih startest, habe ich hohe Erwartungen an dich - bitte sende deine Streams auch in der Originalsprache, überall!