Kategorie: computer

Was die Zukunft bringt

Effizienz und Produktivität ist für die Roboter. (Kevin Kelly)

Ich kenne Kevin Kelly von Tim Ferriss‘ Podcast. Er beschäftigt sich mit Trends und Technologien und ist als Mitgründer von „Wired Magazin“ hierfür kein schlechter Ansprechpartner. In seinem 1994 erschienenen Buch hat er sich bereits mit Dezentralisierung und Selbstorganisation (Schwarmintelligenz) beschäftigt. Dieser TED Talk ist sehr zu empfehlen:

Agiles Schätzen mit Storypoints – Agile Estimating with Story Points

English Version below

Agiles Schätzen mit Storypoints

Komplexität, Aufwand, Zeit – was soll mit den Storypoints eigentlich geschätzt werden?

Wenn alle Userstories von ein und derselben Person bearbeitet werden würden, dann sollte am Ende gelten: Je größer die geschätzten Storypoints, desto länger hat es gedauert (Investierte Arbeitszeit = Aufwand).

Nun arbeiten wir aber im Team und wir alle wissen, dass es unterschiedliche Arbeitsgeschwindigkeiten gibt. Deshalb schätzen wir ja nicht in Zeit sondern Storypoints. Und Storypoints funktionieren immer im Vergleich mit anderen Aufgaben (relatives Schätzen), also „größer, kleiner, gleich“. Deshalb stellt euch folgende Frage beim Schätzen:

„Wenn ich die Story allein lösen müsste und ich alle Tools benutzen dürfte die im Team zur Verfügung stehen, würde ich dann länger, kürzer oder gleichlang für diese Story brauchen als für die andere Story?“

Jetzt kommt sofort der Einwand „Aber ich kann ja gar nicht alle Tools bedienen, bzw. mir fehlt Vorgehens-/Fachwissen etc.“ Das stimmt. Aber das fehlt euch bei allen Stories gleichermaßen und kürzt sich weg. Um „größer, kleiner, gleich“ abschätzen zu können reicht es also die Teammitglieder zu befragen, welche tatsächlich Ahnung von den anderen Aufgaben haben. Wenn die sagen „weniger als bei der anderen Story“, dann gilt das für euch bezüglich dieses Aufgabenteils wahrscheinlich auch.

Abschließend noch ein Wort zu Unwägbarkeiten und Risiko. Schneller darf die Bearbeitung immer gehen. Probleme gibt es eher dann, wenn wir Risiken unterschätzen. Deshalb überlegt euch, wie der realistische Worst-Case aussehen könnte und wie aufwändig dieser im Vergleich zur Vergleichsstory ausfällt.

Agile Estimating with Story Points

Complexity, effort, time – what do we estimate when we use story points?

If all user stories are estimated and implemented by the very same person, than the rule should apply: The higher the story points, the more time had been invested (effort).

But we work in teams and as we know, we all have different working speeds. This is the reason why we use story points instead of time estimates. And story points work always in relation to other stories (relative estimation), means „smaller, same or bigger as the other story“. Thus, next time when you estimate ask yourself this question:

„If I had to implement this story all by myself, but I could use all the tools that are available to my team, would it take longer, shorter or as long as the reference story?“

But immediately you will say „But I can not use those tools“ or „I lack the process/domain knowledge etc.“. True – BUT this is true for all stories and therefore (because we estimate by comparing stories) cancels out of the estimation. To estimate „smaller, same or bigger“ you only need to ask those team members who know how to use the tools or have the knowledge. If they say „its less than the other story“ than this holds true if you would do the job.

One final word regarding risk or beeing unsure. It is always good to finish stuff faster. Problems arise (for the PO) if we under estimate tasks. Thus if you feel unsure, it is a good idea to think about the realistic worst case scenario and compare that with the reference story.

 

Vortrag zu Responsive Design by Kent Beck

Ich schaue gerade Kent Becks Vortrag zu Responsive Design an und versuche hier mal meine Gedanken zu den Thema nieder zu schreiben. Hier der Link:

http://www.infoq.com/presentations/responsive-design

Die Seite sieht etwas unübersichtlich aus. Nicht sofort zu erkennen war, dass das Video links nicht alles ist, sondern rechts daneben die Vortragsfolien parallel zum Video umschalten. Also nicht einfach (wie gewohnt) das Video in den Vollbildmodus schalten.

Retrospektive mit Karteikarten

Das sollte man auf Arbeit mal unseren Vordenkern vorschlagen. Hier wendete Kent das „Continuos Improvement“ Pattern auf sich selbst an. Wer macht das eigentlich sonst noch. Häufig wird herzlich gestritten, eine Lösung gefunden und schnell wieder an die Arbeit gegangen. Aber zu dokumentieren warum gestritten/um eine Lösung gerungen wurde und wie und warum das Ergebnis ist wie es ist, das passiert sehr selten. Wahrscheinlich einer der Gründe wieso Kent Beck ein so gefragter Entwickler ist. Er macht nicht nur, sondern er denkt auch darüber nach wieso er es so macht.

Designprinzipien

Kent erwähnt Designprinzipien als Leitfaden für die Entwicklung eines Softwaresystems. Ich kann das nur bestätigen und merke leider immer wieder, dass genau diese bei der Arbeit zwar allen bekannt sind, jedoch häufig nicht dokumentiert werden. Wenn dann Jahre später die ursprünglichen Programmierer weg sind und andere an dem System arbeiten (und andere Prinzipien anwenden) entsteht schnell schlecht wartbarer Code, da Entscheidungen nicht konsistent weiter geführt werden.

Problemlösungs- / Refactoringstrategien

Leap – Sprung

So wie ich Kent verstehe ist der Leap der gefährlichste, jedoch auch schnellste Weg eine Änderung zu erreichen. Solange ich glaube(!) es schaffen zu können sollte ich den Leap versuchen. Sobald ich aber (unterwegs) unsicher werde und das System nicht mehr läuft, gehe ich zurück zum Startpunkt und versuche eine alternative Methode. Kent bringt als Beispiel eine Anwendung wo er sein Designprinzip „Streams statt Filenames“ verletzt hatte. Er wollte nun die Filenames durch Streams ersetzen. Da er 4-5 Klassen anpassen musste ging er davon aus, dass er das so hinbekommt, und wagte den Sprung (Leap). Als er merkte, dass es zu undurchsichtig wurde, änderte er alles wieder zurück und versuchte einen anderen Ansatz.
Interessant war, dass Kent Beck, Author von JUnit, hier zugegeben hat, dass auch bei ihm hin und wieder keine gute Testabdeckung vorkommt. Um überhaupt zu wissen, ob ein Leap erfolgreich war, braucht man Testabdeckung. „Refactoring nur unter Testcoverage“ sollte jedem als Prinzip bekannt sein.

Parallel – Redundanz

Bei Parallel wird ein „zweiter Weg“ ein Problem zu lösen neben den aktuellen (nicht mehr gewollten) gestellt.
Kent bringt wieder das Beispiel „Ersetzen von Filenames durch Streams“. Hier kann man sich vorstellen, dass solch eine Änderung an diversen Stellen in einem SW System schnell unübersichtlich wird.
Kent sagt nun, dass die Parallel-Entwicklung ein sichererer Weg ist. Das kann man so hinnehmen, ich frage mich aber „An welchem Ende des Systems sollte man mit der Umstellung auf Streams beginnen“?

Ich glaube das man vom Ende her beginnen sollte. Also dort wo aktuell die Filenames aufgelöst und die Inhalte gelesen werden, schreibt man eine zweite Methode, welche einen Stream benutzt und zieht die Business-Logik dahin um. Man weiß, dass die Logik funktioniert. Einzig neuer Punkt ist nun, dass Streams statt File-Operationen genutzt werden. Tritt ein Fehler auf weiß man genau, wo man suchen muss. Alle anderen Klassen arbeiten weiter mit Filenames und rufen auch an meiner Klasse die alte Methode mit Filename auf. Die Alte Methode ist aktuell quasi leer. Statt dessen schreibe ich nun dort den Code zum umwandeln eines Filenames in einen Stream hinein und rufe meine neue Methode. Nachdem das alles funktioniert gehe ich zur der Klasse welche meine alte Methode aufruft und schreibe dort eine alternative Methode mit Streams. Diese kann jedoch sofort die neue Methode nutzen. Damit ist die alte Methode an der ersten Klasse nun nutzlos geworden und kann entfernt werden. So gehe ich schritt für Schritt voran und stelle den Code um.

Stepping Stones – Zwischenschritte

Wirklich klar wird das Prinzip durch die Phrase „Wenn ich XYZ hätte, wäre das nicht so schwer“. In so einem Fall baut man sich ein XYZ und macht dann weiter. Notfalls stellt man das XYZ erstmal neben (Parallel) den restlichen Code.
Stepping Stones können leicht overdesigned werden. Also KISS anwenden.

Simplification

Kernidee hier ist: Auf welche primitive Form kann ich das Problem eindampfen? Wenn ich z.B. die Aufgabe habe einen Differentialgleichungs-Löser zu schreiben, der mit bis zu 20 unbekannten arbeiten kann, dann wäre es eine gute Idee mit einem zu beginnen wo keine unbekannte enthalten ist. Und dann einen mit einer Unbekannten. Und dann einen mit zwei. Und dann fällt dabei fast schon von alleine der mit n Unbekannten hinten ab.

Successions – Abfolgen

Die restlichen Folien werden sehr schnell abgehandelt. Von Interesse fand ich die Idee der Successions. Kent vermutet, dass es bei der Arbeit immer wieder Schritte gibt die man nach und nach durchführt um erfolgreich zu sein. Eine dieser Abfolgen ist das bei Simplification erwähnte Prinzip erst „Eine Lösung für 1 Element herzustellen und dieses dann auf mehrere Elemente zu erweitern“ (First One – Than Many). Kent vermutet, dass es noch weitere solcher allgemeinen Abfolgen gibt.

Schlussfolgerung

Ein Vortrag den man sich durchaus mal anschauen sollte.

Nebenberufliches – Als Händler bei Amazon verkaufen

Ich bin mal wieder geschäftlich aktiv geworden. In meinem letzten Beitrag habe ich beschrieben, wie ich Podcasts für mich entdeckt habe. Im Oktober habe ich, Urlaub sei Dank, Zeit gefunden, davon etwas in die Tat umzusetzen. Herausgekommen ist das hier:

Logo

Ich habe mich bei Amazon als Händler angemeldet und verkaufe nun Produkte dort. Damit ich am Ball bleibe und eventuell noch weitere Interessenten finde, habe ich auf FBAinGermany.com einen Blog eingerichtet, auf dem ich meine Fortschritte dokumentiere und über FBA und was funktioniert berichte. Über RSS-Abonenten würde ich mich freuen. Ich versuche wöchentlich meinen Fortschritt zu dokumentieren. Wer noch nie von FBA bzw. dem „Versand durch Amazon“ Modell gehört hat, kann zum Beispiel diesen Artikel über das FBA Geschäftsmodell lesen.

How to use JPA (and DBs) correctly

Today was a day of greater insights at work. We (Java guys and our DBA) have been discussing how to optimize database access from our Java application. Of course we use JPA (by OpenJPA).

We came to the conclusion, that we all are great fans of interfaces and separation of concerns, but we failed to apply it when we designed our persistence layer.

In our application, the jpa entities are exact copies of the tables in the database. Currently we do a refactoring of our database design, and this hits the application code hard.

The following steps to enlightenment we climbed today:

  1. When you access the db by scenario/use case dependent views, you decouple the db design from the java entity design and vice versa. Whenever you change your db design, this goes with 0 effort for the java team.
  2. JPA is capable of integrating values from several tables in one entity, thus JPA entities work like RW-views. Whenever the db design changes, you (should) only have to adjust the JPA annotations to get it working again.
  3. Use good old component architecture for your Java/Application layer. Each component owns its own private JPA entities and some specific public transfer objects to send and receive information to and from a component.
  4. Your private JPA entities hold only necessary information. This holds especially true for relations between entities. If you don’t need a relation in your component, just load it as an ID field instead. This will automatically cut unnecessary eager fetches.

If you have considered this points, also read this article on optimizing the use of JPA by

  • eager fetching if you need all members of a collection instead of N+1 selects (you can do this with JQL fetch queries, too!)
  • lazy loading if you don’t need related objects.
  • JPA pagination instead of java pagination for big result sets.
  • load specific columns if you don’t need the whole object.

Zur Zukunft des Ehrenamts

Ich behaupte, es gibt aktuell mehr ehrenamtlich tätige Menschen als in den 3-4 Dekaden vorher. Mehr noch: Ich behaupt das mehr junge Menschen (Personen unter 40Jahren) ehrenamtlich tätig sind.

Wie ich darauf komme, wo doch Ehrenamt in unserer Marktwirtschaft überhaupt nicht sexy ist?
Nun was zeichnet den das Ehrenamt aus?

Es ist eine Tätigkeit die

  • man ohne die Erwartung an eine Vergütung durchführt
  • der Gemeinschaft einen Nutzen bringt welcher
  • auf „dem Markt“ zu teuer wäre um ihn einzukaufen.

Typische Formen des Ehrenamt sind z.B. Freiwillige Feuerwehren, Trainer in Sportvereinen oder Einwohner die öffentliche Grünanlagen/Blumenbeete pflegen.

Ich behaupte nun nicht, dass es von diesen mehr gibt als in den Jahrzehnten zuvor. Ich vermute der Trend ist da eher rückläufig. Aber habt ihr euch mal überlegt was Free/OpenSource Programmierer und Wikipedianer eigentlich machen? Sie arbeiten ehrenamtlich! Sie schaffen dabei Werte für die Gemeinschaft die diese sonst hätte niemals bezahlen können oder wollen und verbessern damit unser Leben.

Leider wird diese Tätigkeit nur als persönliches Hobby und nicht als gesellschaftlich wichtiges Handeln gesehen.

Man sollte derartige Arbeiten gleichwertig anerkennen mit anderen gesellschaftlich nützlichen Tätigkeiten. Ein freiwilliges soziales Jahr sollte man auch damit verbringen dürfen der Gesellschaft eine nützliche Software zu schenken oder der Wikipedia Dokumente zugänglich zu machen.

Kein DRM in HTML5

Dieser Blogpost lag als Entwurf noch herum und sollte eigentlich vor einem halben Jahr online gegangen sein…
Stop the Hollyweb! No DRM in HTML5.

HTML ist ein Webstandard. Das dürfte mittlerweile jeder wissen. In seiner neuesten Version, HTML 5, liegt ein riesiges Potential für die Weiterentwicklung des Internets. Das hat unter anderem Google begriffen und promoted HTML 5 wie verrückt.

Scheinbar hat nun auch Microsoft dieses Potential gesehen und macht das was Microsoft halt dann so macht: Sachen kaputt. Aktuell versuchen Hersteller, darunter MS, das W3C (die Organisation welche die Webstandards verabschiedet) davon zu überzeugen DRM in HTML5 aufzunehmen. DRM ist „Digitales Rechte Management“, kurz das Zeug was dafür sorgt dass ihr eure gekauften MP3s nicht brennen könnt oder die DVD aus den USA in Deutschland nicht läuft. DRM ist der Feind des freien Internets. Andreas Romeyke hat dies schön zusammen gefasst:

DRM steht für Digital Rights Managment. Kurz gesagt, werden
metaphysische Güter künstlich verknappt, in dem diese an bestimmte Personen (Zahler) gekoppelt werden. Dies geschieht in der Regel durch Verschlüsselung, immer öfter zugleich mit zeitlicher und örtlicher Beschränkung des Zugriffs.

Das ist aus mehreren Gründen problematisch.

1. bei den metaphysischen Gütern handelt es sich idR. um digitalen Datenblock (zB. Bild, Musik, Video, Text) der eigentlich verlustfrei beliebig oft kopiert werden kann. Kurzum, endlich ist es der Menschheit gelungen Waren herzustellen, die niemals altern. Dann kommt jemand daher und läßt diese ohne Not künstlich altern.

2. die Kopplung an eine Person erfolgt in der Regel so, daß eine
Weitergabe des so behandelten metaphysischen Gutes nicht ohne weiteres möglich ist. Man kann das Gut zwar kopieren, aber kein anderer kann es nutzen. Das Gut ist personalisiert.

3. Wegen 2. sind die Hersteller auf den Trick gekommen, daß Kunde ja kein Gut mehr kauft (und damit nicht in dessen Besitz übergeht), sondern man über DRM erzwingen kann, daß dieser nur eine Nutzungslizenz erwirbt. Sprich, dem Kunden kann man wieder etwas wegnehmen und der muß dann ggf. bei  mehrfacher Nutzung auch mehrmalks blechen. Beispiel
Video, bei einem Kaufvideo kaufe ich einmal und kann mir dies mit Freunden dann immer wieder angucken, wenn ich es „lizensiere“, zB. Video on Demand, dann bezahle ich für *jedesmal* gucken.

4. durch die Personalisierung erfahre ich Dinge über jeden
einzelnen Kunden. Eine Deanonymisierung findet statt.

5. Das kulturelle Erbe ist gefährdet. Während zum Beispiel gedruckte Bücher ihren Besitzer überlebten und heute ein wertvoller Schatz sind (und oftmals der einzige, der überlebt hat), ist es bei DRM behafteten Büchern nahezu unmöglich, diese nach dem Tode zu nutzen. Ganz besonders fatal wird es, wenn die Firma ihren Lizenzserver abschaltet und man auf den dann wertlosen, verschlüsselten Gütern sitzenbleibt und man von heute auf morgen digitalen Müll besitzt.

Damit das W3C diesen Fehler nicht begeht müssen möglichst viele Nutzer das W3C darauf Aufmerksam machen. Dafür gibt es diese Petition:

http://www.defectivebydesign.org/no-drm-in-html5

Bitte gerne weitersagen.