Student Projects

Fall 2018

Solar Flare Prediction (SA)

Challenge
Initial position
Solar flares are intense bursts of radiation which can disrupt the power grids of a continent, shut down the GPS system or irradiate people exposed in space. Developing systems for predicting solar flares would allow us to precisely aim our observation instruments at upcoming events, and eventually allow countermeasures to be taken in time against worst-case scenarios.
Objective
The Institute for Data Science (I4DS) curated a machine learning dataset and benchmark for the prediction of solar flares. The benchmark includes an implementation of a simple baseline algorithm (e.g. Zero-rule). In this project, you will create and train better
machine learning models which make use of this dataset.
Problem statement
A single sample of this dataset consists of images of multiple wavelengths over four time steps. If you use of all the available data, your model’s input is an image cube, consisting of four wavelengths, plus some metadata. The model output would be a single scalar prediction, the maximum emission to be expected in the following 24 hours.
Results

will be available in 2019

Patrick Ackermann
Florian Siffer

Spring 2018

Scalable Video Streaming (BA)

Challenge
Ausgangslage
Forschungssatelliten der NASA und ESA produzieren tagtäglich Gigabytes an Bilddaten, welche Wissenschaftler heute mit archaischer Software und viel Handarbeit sichten und analysieren. Es fehlen Werkzeuge, um diese Daten einfach, bequem und schnell zu sichten. Bestehende Lösungen wie das Web-Tool Helioviewer [1] helfen nur teilweise. Sie können die Daten z.B. häufig nicht flüssig als Videos abspielen. Die technische Schwierigkeit besteht hier darin, aus mehreren hochaufgelösten Videos (mit jeweils bis zu 16384×16384
Pixeln) ein flüssiges Video im Web-Browser darzustellen – mit dem gewählten Bildausschnitt, passender Auflösung und trotz begrenzter Netzwerk-Bandbreite.
Ziel der Arbeit
Es soll ein Proof-of-Concept-System entwickelt werden, welche das gleichzeitige, flüssige Abspielen von mehreren Video-Streams in einer WebGL-Applikation demonstriert (WebGL deshalb, weil später die Videos später auf eine Kugel projiziert werden). Das System soll intelligent sein und nur sichtbare Bildausschnitte in der nötigen Qualität vom Server streamen. Die Machbarkeit soll für
einem kleinen Satz an Testdaten demonstriert werden. Neben der Demonstration der Machbarkeit sollen auch Erkenntnisse darüber gewonnen werden, wie viel Speicherplatz ein System benötigen würde, welches echte Daten von diversen Satelliten unterstützen wür-
de. Ebenso soll untersucht werden, wie die User Experience mit bescheidener Netzwerkbandbreite ausfällt.
Problemstellung
Die Realisierung soll in den folgenden Phasen stattfinden:
– Testdaten beschaffen
– Bildfolgen als Videos kodieren, jeweils als Kacheln in unterschiedlichen Auflösungen
– Rudimentäre HTML5-Seite, die relevante Kacheln in geeigneter Auflösungen streamt
– Rendern von überlagerten Videostreams mit WebGL
– Analyse der Resultate
Results

will be available in 2019

Sandro Schwager
Fabio Strappazzon

Timeline Solar Events for helioviewer.org (SA)

Challenge
Initial position
Helioviewer.org is an online tool for visualizing solar data. Due to its straight forward design, it is used for observing solar activity, taking pictures and making videos even by people without a background in solar physics. The tool is particularly useful for outreach activities for research projects at i4Ds. However, it is difficult to find an interesting event such as a solar eruption if you don’t already know the date of its occurrence. The timeline already included in helioviewer.org doesn’t
help much. In the former IP5 project ‚Visualisieren von Timelines‘ (2015), a timeline for solar events featuring drag and zoom functions has already been developed. Building on this, a user-friendly timeline could be realised, leading to a considerable better accessibility of solar data for lay people.
Objective
The goal of this project is the implementation of a user friendly web application containing a timeline for finding interesting solar events of the past in order to produce images and videos of solar activity. The timeline should be embedded into a website. An interface to
helioviewer.org should be established.
Problem statement
– Developing a user-friendly timeline for solar events on helioviewer.org based on an existing visualisation (Integrating preview images).
– Designing a publicly accessible website for the timeline
– Developing an interface to Helioviewer.org
Particular attention should be put to careful visualization and very good user experience with beginners in mind.
The students will investigate the work that has already been done and decide at what level they want to build up on it.
Results

Die Webseite Heliotime.org, die im Rahmen dieses Projektes entwickelt wurde, ermöglicht es, einfach und schnell Sonnenereignisse anhand ihres Röntgenflusses (X-Ray Flux) zu finden, der auf der Webseite in einem Diagramm über die Zeit dargestellt wird. Selektiert die Benutzerin oder der Benutzer einen Zeitpunkt , so wird das zugehörige Bild der Sonne angezeigt. Bei Bedarf können weitere Details zu diesem Ereignis auf Helioviewer.org an- gesehen werden. Helioviewer.org ist eine von der National Aeronautics and Space Admi- nistration (NASA) und European Space Agency (ESA) finanzierte Webseite, die aktuelle und historische Aufnahmen der Sonne von einer Reihe an Sensoren anzeigen kann.

Raphael Roussis
Hinrich Kästner

Euclide Pipelines Powered by Luigi (SA)

Challenge
Ausgangslage
Euclid ist ein Forschungs-Satellit der European Space Agency (ESA), der im Jahr 2020 zur Erforschung von dunkler Materie und dunkler Energie ins All geschickt werden soll. Dabei fallen riesige Datenmengen an, welche in verschiedenen Europäischen Rechenzentren verarbeitet werden. An der FHNW arbeiten wir seit mehreren Jahren an der Infrastruktur, die fürs Managen der Verarbeitungspipelines sowie fürs Verteilen der Verarbeitungsjobs zuständig ist. In den letzten Jahren ist mit Luigi (https://github.com/spotify/luigi) ein schlankes Workflow Management System entwickelt worden und weiter aktiv entwickelt wird, welches u.a. durch dessen Verwendung beim Musik-Streaming-Dienst Spotify bekannt geworden ist. Dieses könnte sich auch für den Einsatz in Euclid eignen. Unter anderem könnte sich dessen Verwendung auch aus Software Stability und Maintenance Überlegungen als grosser Gewinn für Euclid erweisen.
Ziel der Arbeit
Design und Implementierung eines auf Luigi basierenden Pipeline Workflow Management Systems für Euclid.
Problemstellung
Folgende Arbeiten sollen durchgeführt werden (nur 1. – 4. falls als P5 ausgewählt):
– Entwicklung einer Komponente, welche die in Euclid verwendeten Pipeline-Spezifikationen in eine für Luigi verständliche Form bringen.
– Unterstützung der in Euclid erforderliche Datenfluss Patterns (sequentiell, parallel, hierarchisch, …)
– Konzept zur Integration des auf Luigi basierten Workflow Management Systems mit den in Euclid vorgesehenen Computing Infrastrukturen mit geeigneten Prototypen als Proof-of-Concept.
– Erstellen eines auf Luigi basierenden Prototypen, welcher erlaubt, Euclid-Pipelines zum Ausführen zu bringen.
– Evaluation von Workflow Management Systemen, welche fürs Pipeline Processing im High Performance Computing Bereich geeignet sind.
– Erarbeitung eines Konzept zum Verarbeiten von zyklischen Workflow Graphen. Dazu soll wiederum ein Proof-of-Concept in Form eines Prototypen umgesetzt werden
Results

Christoph Christen
Fabian Geisseler

Fall 2017

Algorithmus Tuning für die Sonnenforschung (SA)

Challenge
Ausgangslage
Am Institut für 4D-Technologien (i4Ds) werden zur Erforschung der Sonnenphysik neue Algorithmen entwickelt. Ein solcher Algorithmus rekonstruiert hochaufgelöste Bilder aus verrauschten Röntgenaufnahmen des RHESSI-Satelliten. Dieser NASA-Satellit zeichnet seit über einem Jahrzehnt die Röntgen-Emissionen der Sonne auf. Die Messungen sind von unschätzbarem Wert für die Forschung und mit den verbesserten i4Ds-Algorithmen können daraus neue wissenschaftliche Erkenntnisse gewonnen werden. Die erste Implementation des Algorithmus liefert bereits erfolgversprechende Resultate. Viele Konfigurationsparameter wurden aber durch unstrukturiertes Ausprobieren ermittelt. Die Implementation hat deshalb noch Verbesserungspotential: In manchen Fällen konvergiert die Lösung sehr
langsam, was für den Alltagsgebrauch ein Problem darstellt. Einige Parameter stellen einen Kompromiss zwischen Lösungsgeschwindigkeit und Qualität dar.
Ziel der Arbeit
Sie sollen den Algorithmus zusammen mit uns weiterentwickeln: Durch geeignete Parameterwahl können die Probleme des Algorithmus vermutlich vermindert werden. In einem ersten Schritt sollen Sie systematisch untersuchen, wie die Parameter idealerweise gewählt werden und was die jeweiligen Auswirkungen sind. In einem optionalen, zweiten Schritt können Sie gänzlich neue Lösungsansätze entwerfen und zusammen mit uns entwickeln.
Problemstellung
Sie sollen den Einfluss verschiedener Parameter auf die Leistungsfähigkeit der C#-Implementation messen. Neben der Rechenzeit sollen Sie auch die Qualität der Resultate beurteilen. Wir stellen Ihnen zu diesem Zweck vielfältige Testdaten zur Verfügung. Unter Umständen lohnt es sich, einen Rechen-Cluster zu verwenden, um den grossen Parameter-Suchraum effizient zu durchsuchen. Wenn Sie sich an gänzlich neue Lösungsansätze wagen möchten, werden Sie sich mit quadratischen Optimierungsproblemen (QCP) befassen.
Results

Roland Schmid
Adrian Hitz

Dataflow Visualization mit Python/Javascript (SA)

Challenge
Ausgangslage
Bei grossen wissenschaftlichen Experimenten werden die zum Teil grossen Datenvolumina oftmals in komplexen Datenverarbeitungspipelines zu Endprodukten verarbeitet. Für die wissenschaftlich arbeitenden Endbenutzer ist es für die Interpretation und die Analyse der Ergebnisse unabdingbar, ein gutes Verständnis der Verarbeitungsschritte zu haben. Hier wäre eine klare, navigierbare, interaktive, visuelle Darstellung der zugrundeliegenden Datenfluss-Graphen von immensem Wert. Im Rahmen des Euclid-Projekts (ESA-Mission, welche im 2020 ins All startet), haben wir einen Prototypen erarbeitet, der leider noch sehr rudimentär ist und nur wenige Details aufweist.
Ziel der Arbeit
Darstellung von grossen Datenfluss-Graphen, welche sich zur Laufzeit ändern. Der Benutzer soll dabei gut unterstützt werden, um in grossen, komplexen Graphen navigieren zu können. Zum Beispiel sollen vereinfachte, grob-granulare Darstellungen für den Überblick angezeigt werden können – Zoom-Funktionalität soll dann helfen, mehr Details der Graph-Struktur und Kontext-Informationen transparent zu machen. Geeignete Abstraktionen sollen entworfen werden, welche die Implementierung vielseitig einsetzbar machen soll. Eine Umsetzung im Euclid Projekt mit dessen Anforderungen an Datenflussgraphen soll die Funktionsfähigkeit zeigen.
Problemstellung
Folgende Arbeiten sollen durchgeführt werden (nur 1-6 bei einem P5 Projekt):
(1) Evaluation bestehender Graph-Visualisierungs-Libraries unter Berücksichtigung Euclid-spezifischer Anforderungen
(2) Analyse einer interaktiven Exploration grosser Graphen
(3) Konzeptionelles Design der Implementierung mit den notwendigen Abstraktionen, damit dieses in einer Vielzahl von Projekten eingesetzt werden kann
(4) User-Interaktion-Konzept
(5) Umsetzung in Python und JavaScript
(6) Integration in Euclid mit dessen zur Laufzeit ändernden Datenflussgraphen
(7) Clustering grosser Datenfluss-Graphen mit entsprechenden Visualisierungstechniken
Results

Problemstellung

Die bisherige Lösung, ein Datenfluss-Graphen welcher mittels DOT angezeigt wird, gibt nicht alle Informationen an, welche zum Interpretieren des Graphen notwendig sind. Deshalb soll eine Library erstellt werden, mit welcher interaktive Graphen generiert und nach Belieben Informationen angezeigt werden können.

Vorgehen

Mit ausgiebiger Recherche im Internet über diverse Libraries und dem Austausch mit erfahrenen Entwicklern, wurde entschieden, dass die Lösung mit D3.js [1] und Dagre.js [2] umgesetzt wird. Anhand von Praxisbeispielen im Internet konnten diverse Features umgesetzt werden.

Hauptergebnisse

Entwickelt wurde eine JavaScript Library für die Visualisierung und Interaktion von Graphen. Die Library wurde modular aufgebaut und lässt dadurch sich einfach modifizieren. Sie lässt sich ausserdem auch für andere Projekte einfach einsetzten. Features wie Zoomen, Tooltip, Ports, Gruppieren von Nodes, verschiedene Level of Details und Minimap wurden implementiert. Nähere Informationen dazu sind unter Schlüsselbegriffe zu finden. Zudem können alle Elemente des Graphen eingefärbt werden. Mit dem Graph kann interagiert werden entweder durch das Hovern von Graphen Elementen und durch das Anklicken des Group Handling Buttons. Der Graph kann ausserdem zur Laufzeit manipuliert werden. Die Performance wurde optimiert und mit Performance Tests gemessen.

Céline Albrecher
Claudio Seitz

Spring 2017

Floating in Space (BA)

Challenge
Ausgangslage
Haben Sie schon einmal versucht, sich die unermessliche Grösse des Universums und unsere Winzigkeit darin vorzustellen? Obwohl dies nicht wirklich möglich ist, wird klar, dass hier alle seit der frühen Kindheit antrainierten Vorstellungen von Grösse, Distanz und Zeit ihre Relevanz verlieren. Bisher war es Astronaut/innen vorbehalten, den Raum im All zu erleben, dies allerdings nur sehr nahe der
Erde, und meist in einer engen Kapsel. Mit dem Aufkommen verbesserter VR-Technologien stellt sich die Frage, ob es möglich sei, virtuell eine nie dagewesene Raumerfahrung zu erzeugen. Falls dies gelingt: was löst eine solche Erfahrung aus? Freiheitsgefühle, Entlastung, Bedrohung, Angst?
Ziel der Arbeit
Das Ziel des Projekts ist die Entwicklung einer VR-Applikation für die HTC Vive, um mit Weltraumszenarien zu experimentieren und um eine Installation/Exponat für eine neue Raumerfahrung im Virtuellen zu erzeugen. Im Zentrum steht des Erlebnis des Nutzers und damit eine Raumerfahrung, die so noch nie erlebt werden konnte. Es sollen ruhige, verlangsamende Erfahrungen angestrebt werden. Weder geht es darum, viele spektakuläre Objekte im Weltraum zu besuchen (dafür gibt es bereits Lösungen, z.B. http://en.spaceengine.org/) noch um Erlebnisse verbunden mit Action, sondern vielmehr um die Untersuchung einer neuen Erfahrung für Personen auch ausserhalb der typischen VR-Zielgruppe.
Problemstellung
– State of the Art: bestehende Ansätze in VR, Science Fiction/Film, Gaming, Planetarien und immersiven Exponaten/Ausstellungen
– Entwickeln, testen und auswerten mehrerer Interaktionskonzepte und Space-Szenarien (Fokusgruppe) sowie verschiedener physischer Settings (stehen, sitzen, liegen usw.)
– Die Arbeit erhebt den Anspruch an eine sorgfältige Visualisierung und User Experience
– Ev. Integration von Audio
Results

Das Ziel der Bachelorarbeit war es, für die Astronomie Werkstatt „Raumschiff“ ein Virtual Reality Exponat mit der HTC Vive zu erstellen. Mit Hilfe der Lean UX Methodik wurden so vier verschiedene Szenarien für dieses Exponat erstellt. Dabei wurde erforscht, wie Grösse in der virtuellen Realität dargestellt werden kann, welche körperliche Lage sich eignet und was die Szenarien bei Probanden emotional auslöst. Das Problem wurde auf drei Ebenen analysiert: konzeptuell, technisch und gestalterisch. Anschliessend wurde eine Architektur entwickelt und basierend darauf begonnen die Szenarien mit Hilfe von unity3d und C# umzusetzen. Um ein ausreichendes Feedback für unsere experimentelle Vorgehensweise zu erhalten, wurden in zwei langen und einer kurzen Testphase die User Experience, sowie die emotionale Wirkung analysiert. In allen Phasen fanden die Szenarien grossen Anklang und über 80 Prozent der Teilnehmer konnten Grösse in einem neuen Licht wahrnehmen.

Kevin Biehler
Marcel Groux

The Sun in a Sphere (BA)

Challenge
Ausgangslage
Daten/Bilder der Sonne stehen in hoher Qualität von Satelliten wie SDO frei zur Verfügung. Die Projektion von SDO-Bildern auf eine Kugel wurde im Rahmen von „Science on a Sphere“ von der NOAA (National Oceanographic and Atnospheric Administration) bereits realisiert. Das Exponat der NOAA kostet jedoch viel und benötigt sehr viel Platz, weil von aussen auf die Kugel projiziert wird. Eine solche Installation ist ausserdem extrem aufwändig im Auf- und Abbau, da die Projektoren genau ausgerichtet werden müssen. Daher ist dieses Exponat für kleinere Science Center leider ungeeignet.
Ziel der Arbeit
Im Rahmen dieses Projektes soll eine Low-Cost und Low-Tech Version einer Sonnenprojektion auf eine Kugel entwickelt werden, welche zudem leicht transportierbar sein muss. Die Konstruktion soll dokumentiert und als Open-Source-Anleitung veröffentlicht werden, damit das Exponat von anderen Science Centren nachgebaut werden kann.
Problemstellung
Im Rahmen des Projekts muss geeigneter Hardware identifiziert und getestet werden (Projektor, Fish-Eye Linse, Kugel, Projektionsoberfläche, rotierender LED-Ring, usw.). Kreative Lösungsfindungen im DIY-Stil werden auf Kosten der Perfektion bevorzugt.
Es muss zur Hardware passende Software entwickelt werden, die verschiedene Datenquellen entsprechend aufbereitet visualisieren kann.
Results

Wer hat jemals die Sonne von hinten gesehen?

The Sun in a Sphere ist ein Do-It-Yourself-Sonnenprojektionssystem, entwickelt von zwei Informatikstudenten der Fachhochschule Nordwestschweiz. Das System ist in der Lage Sonnenaufnahmen von NASA-Satelliten zu empfangen, daraus eine 360 Grad Ansicht zu generieren und diese auf eine Kugel zu projizieren. Es bietet kleineren Wissenschaftszentren und Technikinteressierten eine erschwingliche Alternative zu teuren und aufwändigen Installationen.

Lukas Musy
Mischa Nüesch

Classification Algorithm for Particles in the POLAR Space Instrument (BA)

Client: Paul Schärer Institut PSI

Challenge
Initial position
The second Chinese space laboratory Tian Gong 2 (TG2) was launched from the Jiuquan Satellite Launch Center (Inner Mongolia province, China) on September 15, 2016. Among ten instruments transported to space resides a hard X-ray polarimeter called POLAR, constructed partly by the Paul Scherrer Institute. POLAR measures not only the polarization from Gamma Ray Bursts, the biggest explosions in the Universe, but it is also capable to carry out very precise measurements of polarization in solar flares. With the POLAR
Science Data Center PSI-PSDC located at PSI-Villigen, scientists from FHNW and PSI get a quick access to the raw and pre-processed data needed for analysis. New computational tools and algorithms are still to be developed and implemented in the PSDC. They aim, for instance, at correlating POLAR measurements with observations from other satellite missions and provide computer based elaborated methods for various tasks and aspects of data analysis.
Objective
In order to analyze the data, we have to discriminate between X-ray photons and other particles that are also accidentally detected by the instrument is space. For this, one needs a dedicated algorithm. POLAR consists of a pixelated detection sensor matrix with 40×40 elements. The instrument is sensitive not only to X-rays but also to other particles. It includes galactic and extra-galactic Cosmic Rays, positrons and neutrons coming from the spacecraft activation as well as electrons and protons originating for example from the Earth Radiation Belts. Various particle species interact with the POLAR sensors in a characteristic way. Particle signatures can be classified by their track features and energy depositions in the sensor matrix.
Problem statement
The task is to develop and verify algorithms for identification and separation of particle species detected by POLAR. In a first phase you will familiarize yourself with the POLAR instrument, its data, and the data center, you will be in contact with our partner at PSI to discuss the requirements for this project. You will also look at possible classification methods such as plain analytical methods, neural networks, or genetic algorithms.
Next, you will design a classification method based on the already available POLAR data. You will then set up an environment for testing various classification methods.The results of these tests will suggest improvements on your algorithm. This will therefore be an iterative process. Data visualization will play an important role to understand the processes.
Finally, you will select the best algorithm and set up the operative environment to run your final application in the data center as a tool to support science data analysis.
Results

Philip Stark

IRIS Big Data Browser (SA)

Challenge
Ausgangslage
Im Rahmen des Nationalen Forschungsprogrammes ‚Big Data’ wird die FHNW eine grosse Menge Daten von der Sonnenatmosphäre analysieren und versuchen, daraus geeignete Verfahren zur Vorhersage von Sonneneruptionen und Weltraumwetter abzuleiten. Im Speziellen werden wir einen grossen Datensatz des von der NASA entwickelten Satelliten IRIS (Interface Region Imaging Spectrograph) untersuchen, welcher Messungen in Form von Bildern und Spektren von der Sonnenoberfläche sammelt. Das Datenvolumen ist in der Zwischenzeit auf über 10 TB angewachsen und am Ende der Mission wird mit einem Volumen von mehr als 30 TB gerechnet. Bei diesen Datenvolumina ist es von grosser Bedeutung, geeignete Ansichten auf den gesamten Datensatz
zur Verfügung zu haben, um sich schnell einen Überblick verschaffen und interessante Teilbereiche effizient identifizieren zu können.
Ziel der Arbeit
Zum Sichten der grossen Datenmengen soll ein Browser-basiertes Tool gebaut werden, welches einfachen Zugang (mit Filter- und Suchfunktion) zu den Roh-Daten und den Metadaten ermöglicht. Die Roh-Daten sollen damit effizient und ohne Verzögerung in wissenschaftlich akkurater Visualisierung durchsucht und betrachtet werden können. Das Tool soll es zudem einfach ermöglichen, modular Datenvorverarbeitungsschritte in Ansicht und Suche zu integrieren.
Problemstellung
Der Datensatz wird auf einem Server lokal gehosted werden. Der Datensatz soll dann in einer Datenbank erfasst, mit Metainformationen versehen und einfach durchsuchbar gemacht werden. Eine einfache REST-API soll es ermöglichen die Datenbank abzufragen und Metadaten sowie Roh-Daten zur Verfügung zu stellen. Hinzukommend soll ein Browser-basiertes Tool erstellt werden, welches einfachen Zugang zu Daten und Suchfunktionalität erlaubt. Wo sinnvoll sollen Such- und Filterfunktionen durch graphische Darstellungen unterstützt werden. Schliesslich ist insbesondere auf die ansprechende und intuitive Darstellung der wissenschaftlichen Dateninhalte zu achten. Die Sichtung der grossen Mengen Bilder und Spektren soll flüssig und ohne störend langes Laden möglich sein. Dazu soll asynchrone Kommunikation zwischen Back- und Frontend eingesetzt werden.
Results

Cedric Mendelin
Michael Ineichen

Fall 2016

Elveti: Overview and Control on the Fly (BA)

Client: Solenix GmbH

Challenge

Zielsetzung
Dieses Projekt befasst sich mit der Entwicklung einer plattformübergreifenden, mobilen Smartphone Applikation für Android und iOS zur Darstellung von Informationen sowie Echtzeit-Daten einer neueren Generation von Kleinsatelliten, den sogenannten CubeSats. Für dieses Projekt wird die App beispielshaft für die SwissCube Mission der EPFL umgesetzt, sie soll jedoch möglichst generisch aufgebaut sein, um schnell an andere Missionen angepasst werden zu können.

Ausgangslage
Die Solenix GmbH entwickelt ein Mission Control System, das die Daten des Satelliten verwaltet, welches erweitert werden kann, um den sicheren Zugriff auf die Daten von Aussen her zu ermöglichen.

Results

Um die Daten in Echtzeit auf den Clients anzeigen zu können, wird SignalR eingesetzt. Der SignalR Hub ist wiederum als Web-Applikation auf einem IIS Server realisiert worden, welcher Aufgaben wie die Authentifizierung oder Datenverschlüsselung übernimmt.

Das User Interface ist für die jeweilige Plattform nativ gestaltet und implementiert die Vorgaben der Design Guides von Android und iOS. Für die Programmierung wurde das Framework Xamarin.Forms und entsprechend C# und XAML verwendet. Zur Darstellung von Positionsdaten sowie eines 3D-Modells des Satelliten wird die 2D- respektive 3D-Engine von Xamarin genutzt.

Die resultierende Applikation bietet interessierten Nutzern einen effizienten Zugang zu Ansichten mit allgemeinen Informationen zur SwissCube Mission sowie zu den Echtzeit-Daten von SwissCube. Als Mission Controller besteht die Möglichkeit, sich über ein Login anzumelden, um auch Rohwerte zu den Daten zu erhalten. Die App ist generisch erweiterbar für andere CubeSat-Missionen und soll voraussichtlich für die QB50 Missionen zum Einsatz kommen.

Annika Winterhalter
Joep Neijt