eparo – Digital Service Design

Das Blog von eparo.de

22. Mai, 2017

Therapeutisches Videospiel „Memore“ in der Produktreiferei

Wir waren selbst neugierig und haben Memore ausprobiert :-)

Wir waren selbst neugierig und haben Memore ausprobiert.

In der Produktreiferei testen wir innovative Startup-Produkte. Diesmal haben wir die therapeutische Videospielkonsole MemoreBox mit drei 70+ Probanden über drei Stunden getestet und spannende User Insights gesammelt!

Gaming mal anders!

Am 11. Mai haben wir die therapeutische Videospielkonsole MemoreBox getestet. Memore wird vom Social Startup RetroBrain entwickelt und wurde speziell für Senioren konzipiert. Über die gestenbasierte Steuerung mit einer Microsoft Kinect werden am TV mit verschiedenen Spielen Gleichgewichtssinn und Beweglichkeit trainiert – das mussten wir unbedingt testen! Also haben wir drei Nutzer im Alter von 70+ eingeladen, vor einen großen Fernseher gestellt und dann einfach mal geschaut, was passiert. Fazit: Unsere Probanden haben sich generell gut in den einzelnen Spielen zurechtgefunden. Bei der Navigation durch das Menü haperte es an einigen Stellen, aber der Spaßfaktor stimmte auf jeden Fall! Können wir auch so bestätigen. Wir waren selbst neugierig und haben Memore ausprobiert :-)

Testbeobachtung

Trotz des guten Wetters am Testtag kamen zahlreiche Produktreifer zur Testbeobachtung. Während wir den Probanden beim Spielen von Memore zuschauten, hielten wir die beobachteten Reaktionen und Probleme direkt auf Post-Its fest.

Nach jedem Test wurden die zahlreichen Notizen auf unserer über 20m² großen Whiteboardwand gesammelt. So füllte sich der Raum schnell mit vielen bunten Post-Ist. Testauswertung

Nach den Nutzertests haben wir die Post-Its gemeinsam sortiert und zu Clustern zusammengefasst. So zeigte sich schnell, an welchen Stellen es Nutzungsprobleme gab. Zusammen mit RetroBrain haben wir mögliche Optimierungsansätze für das Interface und die Gestensteuerung erarbeitet und diskutiert und den Abend dann gemütlich bei einem Bierchen ausklingen lassen. Unser Learning: Gesten, bei denen der Nutzer die Arme oder Beine heben muss, sind vollkommen neu und ungewohnt. In diesem Feld Interaktionen zu gestalten ist echt nicht so einfach. ;-)

PostIts

Was tun wir in der Produktreiferei?

Startup-Produkte aller Art werden in der Produktreiferei mit der Nutzerzielgruppe auf ihre User Experience und Usability getestet. Zu jedem Termin gibt es von uns ein kostenfreies Mini-UX-Testing für ein Startup. Über unser Meetup laden wir euch zum Mitmachen ein. Ihr könnt die Nutzertests gemeinsam mit uns beobachten, lernen, wie UX-Tests funktionieren und dabei helfen, die Produktideen zu verbessern. Genaueres könnt ihr hier nachlesen.

Du hast eine Produkt-Idee, die getestet werden soll? Schreib uns: https://www.eparo.de/produktreiferei

 
2. Juni, 2016

Produktreiferei #2 mit Veloyo

Produktreiferei Header

Alle zwei Monate testen wir eine Startup-Idee in unserer Produktreiferei. Das heißt es gibt von uns ein kostenfreies und offenes UX-Testing für ein Startup. Dabei können bis zu 20 Personen live zusehen und ihr Feedback geben. Die Beobachter können Nutzern über die Schulter schauen, lernen, wie UX-Tests funktionieren und helfen, die Produktideen zu verbessern. In der Kombination werden so aus Produktideen reife Produkte.

Das Startup: Veloyo  Plattform für mobile Fahrradreparatur

Copy of VLY_Back-DEDieses Mal war Veloyo bei uns. Veloyo bietet Nutzern die bequeme Buchung von Fahrradreparatur-Dienstleistungen über das Smartphone an. Der Nutzer knipst ein paar Fotos von seinem Fahrrad und den Schäden und verschickt die Anfrage zusammen mit dem georteten Standort des Rades. Anschließend meldet sich ein Mechaniker per Text-Chat beim Nutzer und stimmt einen Termin mit diesem ab. Über den Chat erhält der Nutzer dann Updates zur Reparatur.

Abgefahren! Ein Fahrrad im UX-Labor

IMG_0408Um das Nutzererlebnis rund um den Reparatur-Service möglichst ganzheitlich zu testen, haben wir keine Mühen gescheut. Wir haben Christian sein geliebtes Fahrrad abgeknöpft und es in unser UX-

Labor gestellt. Um die Test-Situation noch realistischer zu gestalten, musste noch ein Platten her und so fiel dann der hintere Fahrradreifen dem UX-Test zum Opfer.

Bildschirmfoto 2016-05-30 um 17.29.50

Den drei Probanden haben wir im Test unsere Eyetracking-Brille, die Tobii Glasses 2, aufgesetzt. Dadurch konnten alle Produktreifer quasi mit den Augen der Probanden sehen und genau mitbeobachten, was ein Proband am Smartphone tut und wo er dabei hinschaut. So konnten wir dank der drahtlosen Eyetracking-Brille live mitverfolgen, wie die Probanden um das Fahrrad herum gingen und dabei mit Smartphone-Kamera und Fahrrad interagierten.

Ergebnisse des Abends

AuswertungAuch diesmal wurden wieder eifrig bunte Post-Its beschrieben und unsere Workshop-Wand von unten bis oben vollgeklebt. Für die Auswertung schnappten sich jeweils zwei bis drei Produktreifer einen Themenkomplex, um die Ergebnisse zu sortieren und Erkenntnis-Cluster zu bilden.

Der Buchungsprozess wurde von allen drei Probanden ohne größere Schwierigkeiten durchlaufen. Vom Text-Chat mit dem Mechaniker waren die Probanden zwar überrascht – es klappte aber prima. Als Fazit kann gesagt werden, dass die Plattform von Veloyo bereits eine hochwertige User Experience bietet und es von Nutzersicht aus nur noch kleinere Akzente gibt, die weiter optimiert werden könnten.

 

 


Wir machen Sommerpause!

Der Sommer steht vor der Tür! Aus diesem Grund machen wir mit der Produktreiferei bis Ende August erstmal Sommerpause. Wir freuen uns schon auf weitere tolle UX-Testings im Herbst!

Wann genau es weiter geht, erfahrt ihr über unsere Meetup-Gruppe. Meldet euch gerne an: http://www.meetup.com/de-DE/Produktreiferei/events/229607151/

Du hast eine Produkt-Idee, die getestet werden soll? Dann geh auf unsere Seite und schreib uns: https://www.eparo.de/produktreiferei

 
12. Mai, 2014

Beobachten – die Basis für nutzerzentriertes Service Design

Richtig beobachten – das ist eine der Kernkompetenzen des digitalen Service Design. Nur erfahrene Experten wissen, was sie in User-Tests be(ob)achten müssen und wie sie daraus nutzerfreundliche Konzepte entwickeln. Denn nur sie können erkennen, was nicht offensichtlich, aber oft wegweisend ist.

Geschult beobachten = Sehen, was beobachtens-wert ist

Geschult beobachten heißt sehen, was Beobachtens-Wert ist

Geschultes Beobachten: sehen, wissen, einordnen.

Beobachten ist keineswegs trivial. Und vor allem: Beobachten ist weit mehr als nur zusehen. Als Methode beruht Beobachten auf Erfahrung und Fachwissen. Geschultes Beobachten bedeutet daher zuallererst: Der Beobachter muss wissen, was überhaupt einer Beobachtung wert ist. Sehen kann man Vieles. Doch das zu erkennen, was wirklich weiterführt, ist eine Kompetenz.

Beobachtenswert ist nicht das Offensichtliche

Fast immer geht es dabei nicht um das, was offensichtlich ist, sondern um das Unerwartete, Indirekte und um das, was gerade nicht passiert. Wenn Nutzer in einem Test eine Bühne nicht beachten, einen aus Anbietersicht klaren Mehrwert nicht wahrnehmen oder einen Call to Action einfach ignorieren, dann sind genau das die Ansätze für eine nutzerzentrierte Gestaltung.

„Observation forces us to focus on the actions that we are trying to support through design, rather than the things (or services – MW) we will ultimately produce.“ (Jane Fulton Suri, Partner & Creative Director at IDEO)

Beobachtet wird die Nutzung – nicht der Nutzer

Beobachten ist eine Kernaufgabe nutzergetriebener Innovation, denn im Zentrum jeder Beobachtung stehen User. Oder besser: ihre Handlungen. Denn auf der Suche nach Design- oder Service-Innovationen zählen am Ende natürlich nicht die Eigenschaften der User (wie Alter, Einkommen etc.), sondern es zählt die Art und Weise, wie ein Nutzer mit einem Problem oder Service umgeht und interagiert. Beobachtet wird, was Nutzer tun und was sie nicht tun – und genau diese Nutzungsmuster leiten die Konzeption an.

Beobachten – die Grundzutat für digitale Innovation

Geschultes Beobachten liefert den zentralen Ansatz für eine ernsthaft nutzergetriebene Konzeption und Entwicklung digitaler Services. Zusammen mit Kreativität, Empathie, Erfahrung und handwerklichem Knowhow ist Beobachten eine Grundzutat für überzeugende digitale Innovationen.

 
24. August, 2013

Mobile Payment (2): Mobile Payment aus Nutzersicht

Beim Mobile Payment zählt die Mobilität der Nutzer, nicht die der Geräte. Das bestätigen Nutzer in unseren Interviews immer wieder. In der „Fachdiskussion“ allerdings, kommt dieser Punkt nicht vor. Alltagseinkäufe im Vorbeigehen, direkt bezahlt  über das Smartphone – nur das ist für User echtes mobile Payment. Warum man das ernstnehmen muss und welche Konsequenzen das für die Konzeption mobiler Bezahlschnittstellen hat,  zeigt der zweite Teil unserer Mobile Payment-Serie.

Mobile Payment aus Nutzersicht

Mobile Payment aus Nutzersicht

Wann ist Bezahlen eigentlich Mobile Payment?

Wer online einkauft, betreibt eCommerce. Bezahlt wird dabei – naja – sagen wir: elektronisch, jedenfalls nicht mobil. Erfolgt der Kauf vom Tablet oder Smartphone aus, spricht man von mCommerce – alles andere bleibt gleich. Aber Moment: Was ist denn mit dem Bezahlvorgang? Muss der denn jetzt nicht plötzlich „mobil“ sein und damit ein Fall von Mobile Payment? Folgt man der  allgemeinen Mobile Payment Diskussion, lautet die Antwort eindeutig „Ja“.  Der gesunde Menschenverstand allerdings und alle Nutzer, die wir fragen, sagen: „Nein, natürlich nicht!“

Was zählt ist die Mobilität der Nutzer, nicht die der Geräte!

Zahlen von einem mobilen Endgerät aus ist noch lange kein Mobile Payment – obschon natürlich Mobile Payment wörtlich genommen nichts anderes meint. Was aber zählt ist nicht die Mobilität der Geräte – denn der Kauf von zwei T-Shirts über das heimische Tablet ist ja kein ernsthaft mobiles Bezahlen. Sondern was zählt ist die Mobilität der Nutzer, also der Kauf am Point of Sale – so jedenfalls sehen es Nutzer, wenn man sie fragt.

Mobile Payment ist Micropayment

Nutzer sind da eindeutig: Zahlungen sind „mobil“, wenn sie aus einer Unterwegssituation heraus am PoS erfolgen – das bestätigen unsere Interviews immer wieder. Kernfälle für mobiles Bezahlen sind damit vor allem die Waren des täglichen Gebrauchs, der Kaffee auf dem Weg zur Arbeit, das Brötchen in der Mittagspause, die Tageszeitung und so weiter. Der sorgfältig recherchierte, neue Flatscreen gehört eher nicht dazu. Mobile Payments sind Micropayments.

Zwei Arten von Mobile Payment – und nur eine zählt!

Nimmt man diese Nutzerperspektive ernst, dann lassen sich aus Nutzersicht so zwei Arten von Mobile Payment unterscheiden:

1. Das Bezahlen im eCommerce mittels Handy oder Tablet.
2. Das Bezahlen von tendenziell kleineren, alltäglichen Waren direkt am Point of Sale – ebenfalls mittels Smartphone oder Tablet.

Und für Nutzer ist dabei klar: Echtes mobiles Bezahlen findet nur im zweiten Fall statt. Nimmt man die Nutzer ernst, ist Mobile Payment also, völlig anders als aktuell diskutiert wird, kein primär technisches Thema mehr, sondern vor allem eine Frage der Nutzung und der Nutzungssituation.

Ein Grundpfeiler für echtes Mobile Payment

Und das heißt: Aus Nutzersicht sind damit am Ende mindestens die Hälfte aller Payment Lösungen nicht ernsthaft mobil. Wer erfolgreiche Mobile Payment Schnittstellen konzipieren und entwickeln will, sollte das berücksichtigen. Ein Beispiel stellen wir im folgenden, dritten  Beitrag unserer Artikelserie vor…

Florian Scheppelmann

Florian Scheppelmann

Florian ist die gelebte Mensch-Maschine-Interaktion und interessiert sich vor allem für Intuitivität, Wissensgenerierung und aus aktuellem Anlass die Empfindung von Wertigkeit.

 
13. August, 2013

Gelesen: 100 Things Every Designer Needs To Know About People

Das Buch bietet einen guten Überblick über die menschlichen Denkweisen und in welcher Art und Weise man sie im Zusammenhang mit Design und Usability beachten sollte. Es sind 100 kurze Abschnitte zu einem Thema, (How People Decide, How People See, How People Remember etc.) mit vielen Beispielen und einem „Takeaway“ zum Schluss. Das Buch stellt eine Verknüpfung aus Disziplinen wie z.B. der Allgemeinen -, und der Sozialpsychologie mit Design/Usability/UX her, die Kapitel sind teilweise recht kurz, aber dafür hat man 100 davon!
100Things

Autor: Susan M. Weinschenk
Jahr: 2011
Seitenanzahl: 242

Kernidee

Verknüpfung von menschlichen Denkweisen mit Usability/Design.

Keywords

Design, Motivation, Gedankenwelt, Gefühle, Menschen, Webseite, Neurowissenschaft, Psychologie

Wer sollte es lesen?

Da das Buch viel verschiedenes Beschreibt, anstatt eine Anzahl an Themen genauer zu untersuchen, würde ich es eher Einsteigern in das Thema empfehlen. Es bietet einen guten Einstieg in die Thematik, beschreibt viele Konzepte die für Leute aus dem Bereich schon bekannt sein sollten. Experten würde ich das Buch nicht empfehlen, da man eher die Oberfläche betrachtet und nicht die Tiefe der Themen.

Lieblingszitat

 “People are inherently lazy.”

Anwendung im UXD

Beispiele für Anwendungen können direkt den Takeaways entnommen werden. Z.B.: „Write error messages in plain language and follow the guidelines above for clear error messages.” Man bekommt insgesamt ein Gefühl für die menschliche Sichtweise der Dinge.

Top 3 Aussagen

„People make most decisions unconsciously”

“People lie to differing degrees depending on the media”

“People will always make mistakes; there is no fail-safe product”

 
27. Mai, 2013

Intuitivität ist planbar – wie optimale Interfaces entstehen

Intuitiv zu sein ist für Interfaces heute Pflicht. Aber was genau heißt das eigentlich? Und wie lässt sich Intuitivität erreichen? „Aus dem Bauch heraus“: Diesen Anspruch an die Bedienbarkeit von Geräten und Anwendungen hat Vorreiter Apple in den Köpfen der Masse verankert. Trifft das nicht zu, fällt das Todesurteil für jede Anwendung. Doch intuitive Interfaces entstehen nicht durch spontane Eingebungen. Sie sind das Ergebnis systematischer Konzeption und Gestaltung. Basis ist nicht das Bauchgefühl, sondern das unbewusste Vorwissen der User.

 

Intuitive Bedienung heißt: Explizites & implizites Vorwissen nutzen

Intuitive Bedienung heißt: Explizites & implizites Vorwissen nutzen

Intuitive Bedienbarkeit:
Optimales Zusammenspiel von System, Nutzer und Aufgabe

Anwendungen und Geräte ohne Einarbeitung bedienen zu können – das ist der Traum für jeden Nutzer. Doch die Intuitivität eines Systems fällt nicht vom Himmel. Und mehr noch: Genau genommen gibt es intuitive Interfaces gar nicht! Es gibt intuitiv bedienbare Systeme. Diese intuitive Bedienbarkeit muss aktiv geplant werden und ergibt sich aus dem optimalen Zusammenspiel zwischen dem System, seinem Nutzer und der zu bewältigenden Aufgabe.

Intuitivität planen:
User wenden unbewusst Vorwissen an

Intuitive Bedienbarkeit ist keine Bauch-, sondern eine Kopfsache. Spontan gefragt, wann Anwendungen „intuitiv“ sind, fallen natürlich jedem sofort Dinge ein wie „das System nutzen, ohne darüber nachzudenken“, das ein Interfaces sind „möglichst natürlich nutzen lassen muss“ oder eben, dass es „schnell und einfach bedienbar“ sein muss. Das alles ist auch nicht völlig falsch, geht aber dennoch klar am Kern der Sache vorbei. Denn: Intuitiv bedienbar sind Interfaces nicht auf Basis irgendwelcher Eigenschaften, sondern weil sie an bereits vorhandenes Wissen anknüpfen – und dieses ohne Umwege einsetzen.

„Ein technisches System ist im Rahmen einer Aufgabenstellung in dem Maße intuitiv benutzbar, in dem der jeweilige Benutzer durch unbewusste Anwendung von Vorwissen effektiv interagieren kann.“
Mohs/Hurtienne/Kindsmüller/Israel/Meyer, IUUI Research Group

Intuitivität gestalten:
Automatismen, Schemata und Metaphern erleichtern Bedienbarkeit

Wie gestaltet man Interfaces intuitiv? Oder eben genauer: Wie knüpft man für die Interface-Bedienung an Vorwissen an? Drei Merkmale sind entscheidend:

#1: Konsistenz schaffen
Konsistenz heiß: Wiederkehrende Bedienelemente, wie beispielsweise Buttons, bekommen immer dieselbe Position und Funktion. Ähnliches gilt auch für allgemeinere Gestaltungselemente wie etwa Farben: Hebt eine Farbe an einer Stelle den Call to Action hervor, sollte diese Farbe immer für den CtA stehen. So bilden sich schnell Automatismen und die Bedienung wird erleichtert.

#2: Image Schemata nutzen
Image Schemata sind Handlungs- und Wahrnehmungsmuster, die wir verinnerlicht haben und die unser Verhalten anleiten. Ein Beispiel ist das Schema Zentrum-Peripherie: Wichtige Dinge stehen mittag und die unwichtigeren eher am Rand.

#3: Metaphern einsetzen
Metaphern erlauben uns, die Eigenschaften eines Objekts auf ein zweites und neues Gebiet zu übertragen und erleichtern uns damit die Orientierung auf dem neuen Gebiet. Am bekanntesten ist hier wohl die Schreibtisch-Metapher, durch die eine klare Vorstellung davon entsteht, was der digitale Desktop kann.

Intuitive Interfaces:
Paradebeispiele für Neurodesign und Implicit UX

Interfaces sind erfolgreich, wenn sie Nutzer auch unterbewusst optimal ansprechen. Am Ende zielt daher fast jede Konzeption auf intuitive Bedienbarkeit. Dieses Ziel ist erreichbar, weil sich intuitive Interfaces planen und aktiv gestalten lassen. Die Nutzer dürfen dem System diesen Gestaltungsaufwand natürlich nicht anmerken. Erlebt wird aus Usersicht nur eins: Der völlig ungehinderte und eben auch implizit optimale Umgang mit dem System. Eine optimale Produkt- und Service-Experience.

 
20. Januar, 2013

Implicit UX – Vorstellung einer neuen User Experience-Dimension

Usability und User Experience blenden einen zentralen Faktor jeder Interface-Nutzung aus: Das Implizite. Wie User ein Interface wahrnehmen, wie sie es bedienen und wie sie es erleben, all das können Nutzer nicht ernsthaft aktiv beeinflussen. User entscheiden, handeln und denken primär implizit. Die gute Nachricht dabei lautet: Auch dieses implizite Verhalten und Erleben lässt sich gestalten – wenn man zum richtigen Werkzeug greift… Willkommen im Reich der Implicit UX! – Der folgende Beitrag stellt Ansatz und Ziel von Implicit UX vor, und gibt den Startschuss für regelmäßige weitere Beiträge zum Thema.

Implicit UX - Tiefergehende User Experience

Implicit UX – User Experience mit Blick auf das Implizite

User handeln implizit
– wie schnell klassische UX an ihre Grenzen stößt

In Tests sehen wir immer wieder: User öffnen eine Webseite oder ein App zum ersten Mal – und blenden von Beginn an bestimmte Elemente aus. Ein typisches Beispiel sind Bühnen: Ganz egal wie groß und bunt sie sein mögen, unzählige Nutzer ignorieren solche Aufmacher quasi komplett und steuern direkt auf andere, zum Beispiel interaktive Elemente zu.

Was Ihnen aktuell wichtig ist (und was nicht), entscheiden Nutzer implizit. Die spannende Frage dabei lautet: Nach welchen Kriterien entscheiden sie?

Wie aber können Nutzer Elemente ausblenden und für unwichtig befinden, noch bevor sie sie jemals betrachtet und weiter bewertet haben? Die Antwort liegt im Impliziten – und um implizites Verhalten erklären und auswerten zu können, müssen Usability und UX Analysen neu ausgerichtet werden.

Interfaces für das Implizite
– warum wir sie brauchen und wie wir sie bekommen

Weil Nutzer wesentlich implizit handeln, brauchen wir Interfaces, die das berücksichtigen – und das heißt: Wir brauchen Know How und implizite Testmethoden, um digitale Produkte auch implizit erfolgreich zu konzipieren  und Interfaces verlässlich zu optimieren.

90% unserer Hirnaktivität erfolgt unbewusst und bereits nach 280 Millisekunden ist die unbewusste Verarbeitung visueller Reize abgeschlossen – nur zwei Zahlen, die die Relevanz des Impliziten verdeutlichen.

Implicit UX muss dabei nicht bei Null anfangen.Insbesondere in den letzten Jahren haben die kognitive Psychologie und die Neurophysiologie immer wieder neue implizite Effekte beschrieben. Der erste Schritt zu einer erfolgreichen Produktentwicklung liegt daher heute darin, die Relevanz impliziter Faktoren zu erkennen und bei der Interface-Konzeption und -Gestaltung auf die Implementierung des Impliziten zu setzen.

Implicit UX in der Praxis
– was zu erwarten ist und wie wir sie schon heute nutzen

Bekannte implizite Effekte lassen sich schon heute erfolgreich für die Interface-Konzeption nutzen. Darüber hinaus ist das Potential riesig: Lediglich ein winziges Stück der impliziten Landkarte ist bisher bekannt und insbesondere die Forschung zum Impliziten in interaktiven Prozessen, wie wir sie in User Test und Research tagtäglich analysieren, steht überhaupt erst am Anfang.

„Es gibt noch kein etabliertes Vorgehen für Implicit UX – deshalb werden wir ein passendes Testverfahren entwickeln und definieren!“ Rolf Schulte Strathaus von eparo

Unzählige Ergebnisse, die das Kerngebiet guter User Experience betreffen, werden aktuell überhaupt erst beschrieben. Gleichzeitig ist der Bedarf nach Expertise bereits groß: Bei eparo beispielsweise diskutieren wir schon sehr regelmäßig mit Kunden darüber, wie wir Bedienelemente, Bestellstrecken und ganze Designs implizit wirksamer aufzusetzen können. Bereits heute können wir hierzu  auf Basis von genauer Beobachtung, viel Testerfahrung und einem breiten Wissen um das Implizite  sinnvolle Optimierungsempfehlungen aussprechen. Welche tiefergehenden Möglichkeiten wir hier in Zukunft haben werden, können wir heute erst erahnen. Die Aussichten hierzu sind jedenfalls vielversprechend….

Einige Schlaglichter, an denen die aktuelle Forschung und wir bei eparo momentan arbeiten:
– Toolkit impliziter Effekte der User Interface-Konzeption
– Erhebung impliziter Parameter im User Research (z.B. Erwartungen, Motivationen, Heuristiken…)
– Valide Testmethode für implizite User Experience
– Konsequenzen von Implicit UX für die Rekrutierung
– …

Mehr zum Thema Implicit UX auch auf www.implicit-ux.de.

 
14. Januar, 2013

Mobile Payment (1): Auf dem Weg in den Massenmarkt

Schon 2012 war Mobile Payment (mPayment) in aller Munde. 2013 gilt mPayment als einer der Trends im Bereich eCommerce.  Branchenexperte Dr. Hagen Sexauer  prognostiziert mCommerce und mPayment heute sogar eine Karriere als echte „Dauerbrenner“-Themen und Technik-Trends der nahen Zukunft (mobilbranche.de – Mobile Trends 2012 und 2013).  Teil 1 der Blogreihe erläutert die Hintergründe userfreundlicher mobiler Einkaufs- und Bezahlsysteme.

Kompletten Artikel lesen »

 
15. Dezember, 2012

Eine wie keine – Die eparo App-Entwicklung für Immonet

App-Entwicklung kann man gut machen – aber man kann Apps auch irgendwie großartig machen. So jedenfalls sollte es sein, und so ist das mit der Immonet iPad-App – ein UXD-Projekt par excellence, mit toller Zusammenarbeit und einem perfekten Ergebnis. Das jedenfalls ist der Tenor der Weave (03/12), die über das Projekt berichtet hat. Und weil wir uns darüber ebenso freuen, wie über das Projekt-Ergebnis selber, will ich den Artikel zum Anlass nehmen, und einfach auch nochmal über das Projekt und die Unterstüzung durch eparo für Immonet berichten…

Immonet iPad-App

Immonet iPad-App

Alles auf Anfang – Die Suche nach einer Produktidee

Im Grunde bringt es Ralf von Immonet im Weave-Artikel selber direkt auf den Punkt: Ideen für Features und Funktionen der neuen iPad-App hatte das Immonet-Team genug. Was fehlte, waren „eine tragende Produktidee und ein Leitgedanke in der Anwendung“, so Ralf. Was die Anwendung noch brauchte, als Ralf mit seinem Team zu eparo kam, waren ein stringenter Blick auf die Nutzer und eine Antwort auf die Frage, wann eine App jemandem, der eine Wohnung sucht, wirklich hilft. Wir haben uns im gemeinsamen Workshop mit Immonet also gefragt: Was muss die App zur Wohnungssuche leisten, um das Suchen zu verbessern – und nicht die Darstellung der Angebote.

„Sie kamen, um zu testen – und fingen nochmal ganz von vorne an“ – Lena in ihrem Artikel in der Weave

Faktisch haben wir uns mit den Kollegen von Immonet dann erst einmal zwei Tage eingeschlossen. Auf unzähligen Post-It’s haben wir unsere Aufgabe durchdekliniert und uns gefragt, wie das Suchen einer Wohnung real abläuft. Dabei haben wir Personas und Nutzungsszenarien entwickelt, Ideen jongliert, Skizzen erstellt – und am Ende eine neue und überzeugende Antwort auf unsere Frage gefunden: Wer Wohnraum sucht, macht sich Notizen. „Dieses Angebot ist interessant, dieses nicht, …“. Die Idee: Die Immonet iPad-App soll diesen Schmierzettel ersetzen, und die komplette Idee der Wohnungssuche digital abbilden.

Die App-Idee – Der digitale Schmierzettel zur Wohnungssuche

Was heißt das konkret? Was der Weave-Artikel sehr schön deutlich macht, finde ich, ist unser Verständnis davon, was es bedeutet, eine solche Grundidee für eine Anwendung zu finden und stringent umzusetzen. Denn was macht so ein Schmierzettel eigentlich? Wozu wird er genutzt? Die einfache Antwort: Er fasst zusammen und sortiert. Denn natürlich geht es bei der Wohnungssuche am Ende nicht darum, die Vielzahl der möglichen Angebote zu überblicken, sondern darum, das Angebot auf die passende(n) Wohnung(en) zu reduzieren. Auf dem Schmierzettel notieren wir alle wichtigen Informationen, tragen Zeiten und Termine für eine Besichtigung ein und streichen am Ende durch, was uns nicht (mehr) interessiert.

Die Kraft eines bewährten GUI-Prinzips: Make it physical

In der App sollte es genauso sein! Auch in der App sollten Nutzer eigene Notizen sowie Photos zu Wohnungen anlegen und Besichtigungstermine eintragen können, die sich dann direkt mit ihrem Kalender synchronisieren. Und vor allem: Einmal aussortierte Wohnungen tauchen nicht wieder in der Suche auf – es sei denn, der Nutzer fischt aus dem Stapel der aussortierten Angebote wieder hervor. Aber es gibt noch mehr…

Lob zuhauf: „Ein konkurrenzlos userfreundliches Feature mit neuen Kundenbindungseffekten“

Wer je umgezogen ist, kennt das: Man sitzt am Tisch vor seiner Karte, kreist mit dem Stift in der Hand über der Stadt und sucht sein liebstes Wohngebiet: „Hier wäre super, oder hier, oder hier: direkt am Hafen, …“ . Hier ist quasi die Karte der Notizzettel, auf dem wir unsere Suchgebiete markieren – und genau das wollten wir auch für die App: Auf der Karte kann der Nutzer mit dem Finger das Gebiet seines Interesses einkreisen und bekommt unabhängig von Postleitzahlen oder Stadtgebieten, die zu seiner Anfrage passenden Angebote in seinem Suchfeld angezeigt. Passt perfekt zum touch-basierten Bedien-Konzept des iPads – und wer schon unterwegs ist, kann sich seinen Standort in der Karte einblenden lassen und gleich auch den besten Weg zur neuen Wohnung finden.

eparo Prototyp zur Immonet iPad-App

eparo Prototyp zur Immonet iPad-App

Die Feuertaufe – Höchstnoten im Nutzertest

Um zu sehen, ob die User unsere Ideen denn auch wirklich gebrauchen können und wirklich haben wollen, haben wir natürlich intensiv getestet. Weil wir mit so ziemlich allen Features Neuland betreten haben und dazu belastbare Ergebnisse wollten, haben wir die App zunächst als detaillierten Prototypen aufgesetzt. Das hat uns – mal aus dem Nähkästchen gesprochen – dann schon auch einiges an Prototyping-Know-How gekostet…

„Cool! Wann kann ich das nutzen?“ – Die Probanden-Höchstnote im Nutzer-Test

Die User Experience-Tests waren dann aber ein großartiger Beleg für das neue App-Konzept: Alle Probanden haben die Kernidee ganz intuitiv verstanden und sie begeistert aufgenommen. Gleichzeitig konnten wir aus den Tests natürlich wichtige Hinweise sammeln, um die entwickelte Produktidee noch weiter zu schärfen. Funktioniert hat das, weil wir exakt passende Probanden im Test hatten – dass aussortierte Wohnungen nicht wieder auftauchen sollten, zum Beispiel, ist ein Ergebnis der Tests.

Das Ergebnis – Ein Produkt ohne Vergleich, und stetig steigende Nutzerzahlen

Die Weave schreibt: „Eine Geschichte vom Nutzen frühzeitiger UX-Tests und iPad-gerechter App-Konzeption“ und fasst das Projekt damit schon ganz gut zusammen. Die wichtigsten Tips zum Nachahmen haben wir dann für den Artikel gleich noch mit zusammengestellt (10 Tips zur Entwicklung erfolgreicher digitaler Produkte). Zur Geschichte gehört dabei auch, dass auch das beste Konzept nur überzeugen kann, wenn auch eine starke Umsetzung erfolgt. Das Immonet Mobile Team hat hier großartig gearbeitet. Am Ende ist es aber natürlich wie immer: Man muss die App sehen und benutzen, um sie wirklich zu erleben – und wenn das nicht so wäre, hätten wir (Immonet und eparo) unseren Job ja auch irgendwie doch nicht so gut gemacht…

Weave-Artikel zur Immonet_iPad-App-Entwicklung

 

 
21. November, 2012

Design meets UX – What to know and what to fear…

Von

Design und UX können nicht ohne und nur selten miteinander – und im Kern dreht sich alles um die Frage „Wie grenzt sich meine Arbeit als Visual-Designer von Deine Arbeit als User-Experience-Designer ab“? Hier eine strikte Trennung zu finden ist so gut wie unmöglich. Und auch nicht nötig: Dialog heißt das Stichwort. Bessere Interfaces sind das Ergebnis. 

the better way: Design und UX Hand in Hand

In vielen Agenturen, wird die Designkompetenz zu spät ins Boot geholt. Meist hat der Kunde mit dem Kundenberater und auch mit dem IA oder UX-Menschen gesprochen, es wurden offene Punkte geklärt und erste Anforderungen schon festgezurrt. Meist gibt es dann das so genannte Kreativ-Briefing, eine rein interne Angelegenheit, und jetzt soll der Designer „das Ganze entsprechend hübsch machen“.

Wo scheinbar schon alles geklärt ist, fangen dann die Fragen überhaupt erst an: Was ist „das Ganze“ überhaupt? Eine Website, eine App, ein Log-in Formular, ein Checkout Prozess? Und was ist hübsch? Und wieso eigentlich hübsch? Das liegt ja auch im Auge des Betrachters und vielleicht ist hübsch gar nicht funktional. Und der Betrachter: Wer ist dieser Betrachter (also User) eigentlich? Und schließlich: Welcher Designer arbeitet denn schon gerne so?

Design ist nicht „hübsch machen“

Um es klar zu stellen, Designer sind keine Dekorateuere. Bei eparo geht es daher auch im Designprozess um das Warum, das Wie und das Was? Und ja, es geht auch um Ästhetik, aber nicht im Sinne von einfach „hübsch machen“, sondern im Sinne einer Idee und Attraktion. Designer stellen sich dabei folgende Fragen: Was ist die Idee hinter einem Produkt, wie lässt sich das visualisieren? Was ist der Inhalt (Content), Wie sieht dieser aus? Ist die Optik passend für die User? Passt es zur Marke? Und alle diese Fragen fließen direkt in die Konzeption mit ein.

„Und jetzt noch: Einige Fragen zum Design….“

Ästhetik spielt dabei eine wesentliche Rolle. Nicht umsonst sind gut gestaltete Produkte so erfolgreich. Man denke nur an die minimalistisch entworfenen Apple-Produkte von Jonathan Ive, die im Wesentlichen von den Braun-Produkten von Dieter Rams inspiriert wurden. Dabei spielt Ästhetik nicht nur die visuellen Sinne an, sondern möglichst mehrere, also beispielsweise auch Hören, Fühlen Schmecken und Fühlen. Und genau das ist der Unterschied zu „hübsch machen“. Gutes Design spricht die gesamte Wahrnehmung an und schafft ein Gesamterlebnis – ebenso wie gute UX.

Design ist die Seele eines Produktes

Um das Produkt zu verstehen, muss auch der Designer den Kunden kennen und die Anwender des Produktes. Was wollen sie, was brauchen sie? Dann erst kann er dem Ganzen eine Seele einhauchen. Wie fühlt sich das Produkt an? Was vermittelt es? Wie sieht es aus? Wie benutze ich es? Das sind nicht nur Fragen, die ein Usability Experte sich fragt, sondern das sind Fragen, die auch der Designer zusammen mit dem UXler beantworten muss.

Wer also einfach jenes Kreativ-Briefing, fertige Wireframes oder einen grob klickbaren Prototypen vorgesetzt bekommt, hat meist nur noch wenig Spielraum. Die Navigation ist horizontal oder linksbündig definiert, das Gestaltungsraster hat 5 oder 6-Spalten, etc…. Dinge wie Marke, Corpora Identity und die vielen weichen Faktoren, die für einen Gestalter und am Ende auch für Nutzer elementar sind, fehlen dabei oft völlig.

Wie ist das Bildmaterial? Wie das Logo? Was ist die Brand Experience? Und ganz Wesentlich: Kann man in der Ausarbeitung, wenn alle Maße und Positionen finale festgezurrt werden, überhaupt alle Dinge genau so platzieren, wie das Wireframe es vorsieht? Kommt der Designer spät ins Boot, ist diese Bruchstelle programmiert.  In enger Zusammenarbeit zwischen Design und UX hingegen lassen sich kostspielige und nervenaufreibende Korrekturschleifen vermeiden.

Design, wenn es gut ist, versteht

Wenn ich also ein Interface gestalten soll, dass einfach zu nutzen und zu verstehen ist, und dabei auch noch für den definierten Nutzer ansprechend sein soll und Spaß machen soll, dann muss ich diesen Nutzer ebenso gut kennen, wie mein Kollege aus der UX. Da reichen keine A4 Zettel auf denen der Kunde ein Briefing geschrieben hat, und auch ein rein internes (Kreativ-)Re-Briefing greift zu kurz.

Ebenso wie UX muss auch gutes Design zunächst verstehen, wie ein Produkt funktioniert. Und das heißt: Wie seine Nutzer funktionieren. Ich zum Beispiel liebe es, diese Detektivarbeit zu machen und mich auf die Spuren meiner Aufgabe zu begeben, Geschäfte zu besuchen, das Internet zu surfen, Zeitschriften zu lesen und Bildwelten zu erstellen, um zu begreifen und Inspiration zu finden.

Design – the better way

Für unsere Arbeit bei eparo heißt all das: Der Designer ist immer mitten im Prozess und beispielsweise auch beim ersten User-Test dabei. Und zwar bei dem User-Test wo der Status Quo abgefragt wird. Nur so wird dem Design voll und ganz bewusst, wo seine Angriffspunkte liegen, ohne das diese Informationen durch andere gefiltert werden. Denn jede Information, die nur weitergegeben wurde, sei es schriftlich oder mündlich, gibt kein komplettes Bild wieder. Kennt man hingegen die Menschen und ihre Bedürfnisse, kann man sich leichter in sie hineinversetzen, egal ob das der Kunde oder der User ist.

Alle an einem Tisch – und maximal nah am User

Unsere Designer legen daher Wert darauf, Interfaces nicht nur „hübsch“ zu machen, sondern wir gehen ganzheitlich vor. Reicht das Briefing vom Kunden nicht aus, setzen wir einen Kreativ- und Konzeptions-Workshop auf, um den Kunden und die User besser zu verstehen. Oder wir gehen auch mal den Extra-Weg und besuchen die Arbeitsplätze unsere Kunden oder User, gehen in die Geschäfte etc. und verzahnen Design und UX immer mehr. Und auch bei immer mehr Kunden kommt der Erfolg dieses Vorgehens an, so dass wir zunehmend auch die Agenturen unserer Kunden beraten, um Interface-Aspekte und Design-Fragen von Beginn an aufeinander abzustimmen – ganz im Sinne der Nutzer.

Lesenwert zum Thema:
http://www.alistapart.com/articles/indefenseofeyecandy/
http://www.smashingmagazine.com/2012/08/24/the-designer-will-make-it-pretty/