DNP13: Das Radar der NSA unterlaufen

Kommentar, Netz, Politik September 21st, 2013

Edward Snowdens wesentliche Leistung war, laut Erich Moechel, die Enttarnung und Entzauberung aller aktueller Geheimdienstmethoden. Nicht nur der der NSA, sondern aller Geheimdienste, da diese höchstens mit Varianten dieser arbeiten. Das Wissen darüber ist nicht mehr aus der Welt zu schaffen, egal wie sehr sich die versammelten Geheimdienste anstrengen und JournalistInnen in ihrer Arbeit stören möchten. Die Suche nach Schwachstellen im Geheimdienst-System auf der Basis dieses Wissens hat gerade erst begonnen. Als erste Reaktion wurde die Verwendung von Kryptografie weltweit hochgefahren, nachdem sich der Verdacht auf Wirtschaftsspionage mehr als erhärtet hat.

Die NSA sagt von sich selbst, sagte Moechel, dass sie schon immer Kommunikationen aller Art abgefangen und ausgewertet hat. Echelon ist das beste Beispiel. Gerade deshalb fordert die NSA den ungehinderten Zugang zu den Glasfasernetzen dieser Welt. Eine weitere Behauptung der Agentur ist, dass sie vier von zehn verschlüsselten Transmissionen knacken können. Das, sagte Moechel, ist aber nur eine vage Behauptung. Sie entschlüsseln nichts wirklich: Es wird daran gearbeitet, scheinbar sichere Verschlüsselungstechniken im Vorfeld so zu manipulieren, dass der mathematische Aufwand zur Entschlüsselung in einen – mit aktueller Technik – realistischen Rahmen rückt. Solche Hintertürchen wurden und werden vielerorts eingebaut, so dass ein Sammelsurium an Methoden entstanden ist.

Daneben gibt es die Zusammenarbeit mit großen Web-Anbietern wie Google und Facebook, die per Gesetz verpflichtet wurden. Und die NSA ist ein gigantisches Unterfangen: so wird von ihr pausenlos mehr Geld gefordert, um den Aufgaben nachkommen zu können, und ohne Vertragsfirmen – bei einer solchen hat auch Snowden gearbeitet – würde schon längst nichts mehr gehen. Und Moechel zeigte auf, dass mehrere hochrangige Ex-NSA-Mitarbeiter inzwischen als Präsidenten bei genau diesen Auftragnehmern sitzen. “Es ist ein elendiglich blödes Kasperltheater,” sagte Moechel,“ das da pro forma gespielt wird auf der Weltbühne. Jetzt schäumt man in Brüssel. Jetzt geht es erst richtig los.”

Dabei, merkt Moechel an, hat die NSA kein einziges kryptologisches Verfahren tatsächlich geknackt. Sie sind beim AES 256bit Lichtjahre davon entfernt. Deshalb werden die Implementationen kryptografischer Verfahren und die Peripherie starker Kryptografie attackiert. So wurde der Zufall aus vielen Zufallszahl-Generatoren genommen, bekannte Kurven in Elliptic Curve-Krypto-Algorithmen kürzen die reale Schlüssellänge auf eine technisch machbare Größe. Alle diese Methoden sind extrem fragil: kleine Korrekturen des globalen Setups reichen aus, um die Gesamtheit der NSA-Programme binnen kurzer Zeit lahm zu legen.
Im Europäischen Parlament gibt es aufgrund der Enthüllungen nun massive Bedenken gegenüber den Amerikanern, das erstreckt sich auch auf die konservativen Fraktionen, die massiv gegen die Möglichkeiten der Wirtschaftsspionage vorgehen. Nach der Sommerpause tritt das Parlament erst jetzt wieder zusammen, um eine europäische Antwort zu formulieren.

Das alles hat zur Folge, dass die globale Datenaquise für die NSA immer schwieriger wird. Der Druck ist weg, den die NSA auf die Wirtschaft ausüben konnte. Umgekehrt ist der Mediendruck auf die Agentur inzwischen extrem hoch. Die Versicherung der NSA, ihnen zu vertrauen, hilft ihnen gar nicht mehr. Ein ärgeres Versagen, sagte Moechel, als dass Geheimdienstpläne öffentlich gemacht werde, gibt es nicht. “Ich habe mir nicht gedacht, dass das mit so einem Knall herauskommt, und dass es so weitergeht.” Gerade durch die Veröffentlichung der Methoden werden die Agenturen gezwungen, interne Abläufe noch komplizierter zu machen, zusätzliche Sicherheitsschranken einzubauen und damit noch unbeweglicher zu werden. Noch dazu geht der Ansatz der NSA von naiven Nutzern aus, die alle US-Cloudservices nutzen, auch Software und Router aus den USA. Über Cisco wurde bis jetzt nicht gesagt, warnt Moechel.

Gesunde Paranoia ist das, was Nutzerin und Nutzer nun braucht. Sie hilft gegen Überachung wie Fieber gegen grippale Infekte. In einem ersten Schritt kann jeder für sich überlegen, welche Services genutzt werden und welche tatsächlich essentiell für uns sind. Browser mit Plugins aufrüsten: Firefox mit NoScript, Ghostery, dem Tor-Plugin, Third Party Cookies und Javascript deaktivieren und nur akzeptieren, wenn unbedingt nötig. “Gebt Google, was Googles ist, sonst aber nichts!”, menetekelte Moechel. Wenn man Services von Google verwendet, dann kann man auch Chrome dafür verwenden.

Überhaupt, sagte Moechel, kann man die moderne Browservielfalt für sich nutzen, um seine eigene Persönlichkeit in mehrere aufzuspalten. Das geht ganz einfach: man nutzt Chrome für Google Services, Firefox immer dann, wenn die Kreditkarte gefordert ist, und Facebook und Amazon nur mit Safari. Internet Banking macht man über Internet Explorer. Kern ist, verschiedene Anwendungen und Anwendungsbereiche auf verschiedene Browser aufzuteilen. Die Services, die am meisten Daten sammeln, isoliert man am besten in einem Browser. Dieses etwas weniger an Bequemlichkeit bringt viel für Sicherheit gegen Profiling. Auf jede Massendurchsuchung der Daten wirkt sich so ein Verhalten verheerend aus.

Möchte man einen Schritt weiter gehen, fängt man an, E-Mails zu verschlüsseln: Thunderbird mit Enigmail-Plugin nutzen und den PGP-Schlüssel mit einem Ablaufdatum versehen. Dazu sollte man darauf verzichten, Schlüssel zu signieren. “Wenn ich sehe, dass der Schlüssel von fremden Personen signiert ist, sehe ich sofort, wer dessen Peer Group ist. Das ist sträflicher Blödsinn! Man gibt seinen Bekanntenkreis preis.”, warnte Moechel. Das alles muss man nicht zu einhundert Prozent umsetzen. Jede Maßnahme erzeugt zusätzliche Schattenprofile und vervielfacht den Aufwand, um relevante Ergebnisse zu erhalten. Verschlüsselte Alltagsmails helfen, die Datencenter der NSA in Utah und Fort Meade zu beschäftigen, da jede verschlüsselte Mail Overhead erzeugt, die die Ergebnisse schwieriger auffindbar machen. “Weniger Ordnung ist gut für die Bürgerrechte und schlecht für die Überwachung.” sagte Moechel. “Die NSA-Systeme skalieren unter Belastung nonlinear negativ. Das System hält mit dem Wachstum des Aufwands nicht Schritt, ist punktuell gebaut.” Gemeinsam kann man es schaffen, der NSA die Rechenkapazität unter den Füßen weg zu ziehen.

Moechel gab, auf die Frage aus dem Publikum, eine Einschätzung der Lage bezüglich der Villa in Pötzleinsdorf. Kann die NSA dort auf österreichische Daten zugreifen? Seine Antwort: “Ich kann über die Villa nichts definitv sagen. Was das sein wird, ist kein Abhörposten, sondern eine Relais-Station. Die meisten Antennen sind Richtfunkantennen. Ich glaube, dass die Funkverbindungen halten zwischen den [US-]Locations in Wien. So schaut mir auch die Anordnung der Antennen aus. Dort wird nichts mit Glas gemacht, außer das Bundesheer hat eines raufgelegt. Wenn sie wo sitzen, sitzen sie in den Exchanges. Ich glaube nicht, dass das bei uns in dem Ausmaß wie in Deutschland geschieht. Sie holen eh dort die Daten, bei uns geht es nur durch.”

DNP13: Innere Sicherheit in Europa

Kommentar, Netz, News, Politik September 20th, 2013

Auf den ersten Blick glaubt man, das Innere Sicherheit ein sprödes Thema ist, eines, das man sich ungern annehmen möchte, und eines, über das man am besten nicht zu viel erfahren möchte. Zu sehr und zu schnell könnte man sich da an etwas reiben, das dem Geheimdienstskandal entspricht, der uns schon seit geraumer Zeit verfolgt – und noch ein Weilchen verfolgen wird. Am Kongress Daten’Netz’Politik 2013 hat Alexander Sander ausführlich zu dem Thema gesprochen.

Die Europäische Union und Innere Sicherheit: welche Organisationen und Verträge können Sie da nennen? Schengen, Europol, … Frontex, und … … …? Ging mir genau so.

Innere Sicherheit, das sind alle Mittel, die von Staats wegen zum Schutz der verfassungsrechtlichen Ordnung getroffen werden, und die gestützt werden durch ein dafür geschaffenes System staatlicher Institutionen. Es ist, deutlichsten im Ministerium für Inneres sichtbar gemacht, ein zentraler Bestandteil nationaler Politik. Die Exekutive ist das ausführende Organ im Staatsgefüge, um die innere Sicherheit aufrecht zu erhalten.

Aber welche Mittel und Wege werden eingesetzt in der EU? Alexander Sander hat sie zusammengefasst.

Mutter aller Organisationen ist die Interpol, die laut Wikipedia 1923 in Wien gegründet wurde und derzeit 190 Mitgliedsstaaten umfasst. Das Bezeichnendste am reibungslosen Funktionieren dieses Apparats ist, dass niemand genau weiß, wie dieser funktioniert. Zwar hat jedes Mitgliedsland innerhalb der Generalversammlung eine Stimme, und Entschließungen erfolgen nach demokratischen Prinzipien, aber eine unabhängige Kontrollinstanz ist nicht vorgesehen, auch nicht eine parlamentarische Kontrolle. Damit wurde eine Blaupause für das Funktionieren von internationalen Organisationen außerhalb des durch Wahlen demokratisch legitimierten Rahmens geschaffen – gemeinsam mit der TREVI-Gruppe, die die grundlegenden innereuropäischen Verhandlungen zur polizeilichen und justiziellen Zusammenarbeit in Strafsachen vorbereitete.

Das Besondere der TREVI-Gruppe war ihre Struktur als Arbeitsgruppe auf Ministerebene, deren Inhalte von BeamtInnen vorbereitet wurden.
Diese Organisationsform war und ist ein maßgebliches Vorbild für die heutige Arbeitsweise, eine intergouvernmentale Arbeitsgruppe, die unabhängig aller Kontrollmöglichkeiten angesiedelt ist.

Was danach folgte, war eine Vielzahl von Abkommen, wie Schengen, Maastricht, Amsterdam und Tampere
Die große Zäsur erfolgte nach den Terroranschlägen in New York am 11.9.2001 und später jene von Madrid 2004 und London 2005. Viele Gesetze, die nichts mehr mit Terrorismusbekämpfung zu tun hatten, aber in den Themenkreis Innere Sicherheit gehörten, wurden in der Gunst der Stunde durchgepeitscht. Zentrales Element war nach Alexander Sander die Einführung des europäischen Haftbefehls.
So bringt der Vertrag von Nizza zwar die Annahme der Grundrechte-Charta, das Haager Programm aber die Beschließung der Vorratsdatenspeicherung und der Grenz-Agentur Frontex, und der außerhalb der EU beschlossene, zwischenstaatliche Prümer Vertrag den Beschluss, dass die Exekutiven der einzelnen Staaten ungehindert auf DNA-Datenbanken der anderen Unterzeichnerstaaten zugreifen können. So erhalten Länder zum Teil Zugriff auf Daten, die ihnen das Recht im eigenen Land untersagen würde. Österreich hat hier eine Menge an Daten gespeichert, die sogar dem Verwaltungsgerichtshof zu viel war.
Der Vertrag von Lissabon, das derzeit gültige Regelwerk der Europäische Union, beinhaltet zwar nicht die Charta der Grundrechte als Teil des Vertrags, aber stärkt die Rolle des Europäischen Parlaments deutlich. Die neue Entscheidungskompetenz wird zum ersten Mal deutlich in der Diskussion um ACTA.

Wie es innerhalb der EU mit diesem gewichtigen Thema weitergehen soll, war die ebenso gewichtige Abschlussfrage von Alexander Sander. Er sieht eine Ausdehnung der Vorratsdatenspeicherung auf uns zu kommen, ebenso wie eine Ausweitung kriminal-präventiver Maßnahmen. Deutschland steht hier stark dahinter. Eine europäische Fan-Datenbank soll aufgebaut werden, die dann unter bestimmten Bedingungen bei Großveranstaltungen ihr Land nicht mehr verlassen dürfen. Das sehr Deutschland-spezifische Problem stellt sich wiederum in vielen anderen Staaten nicht. Eine Koalition der Willigen vorausgesetzt, wäre eine außereuropäische Lösung ähnlich des Vertrags von Prüm möglich. Wie man das legitimieren möchte, fragt sich nicht nur Alexander Sander. Der eingeschlagene informelle Weg beraubt den Parlamenten ihre Kontrollfunktion und ihr Mitspracherecht. Hier werden viel zu schnell Fakten geschaffen, nicht nur vom Rat, sondern auch von der Kommission, die auch monetäre Druckmittel gegenüber dem Parlament einsetzt, um es vor vollendete Tatsachen zu stellen.

Um Probleme zu vermeiden, wie sie gerade mit der USA und ihren Geheimdiensten bestehen, müsste im Betrieb der Internet-Infrastruktur mehr darauf geachtet werden, dass nur die Datenpakete Europa verlassen, die tatsächlich auch Europa verlassen sollen, und den innereuropäischen Datenverkehr auch innereuropäisch zu routen, und amerikanische Internetknoten hier außen vor zu lassen.

Smart Metering und Datenschutz

Netz, News, Politik, Technologie September 10th, 2012

Wie man anfängt, so hört man gerne auf: mit einem Diskussionspanel. Die Konferenz Daten.Netz.Politik’2012 (#DNP12) endete mit einer lebhaften Debatte rund um das Thema Smart Metering.

Von einer wendigen Barbara Wimmer moderiert, trafen die Standpunkte aufeinander von Harald Proidl, er leitet seit 2011 die Abteilung Ökoenergie und Energieeffizienz in der eControl, Walter Peissl, stellvertretender Direktor des Instituts für Technikfolgen-Abschätzung der Österreichischen Akademie der Wissenschaften und Nadja Shah, Bundesgeschäftsführerin der Österreichischen Mietervereinigung.

Harald Proidl hatte dabei ein ähnliches Vergnügen wie der virtuelle Karas vom Vortag: Die eControl ist aufgrund der rechtlichen und strukturellen Situation verpflichtet, für Strom- und Gaskunden Smart Meter einzuführen. In Österreich soll dies möglichst rasch erfolgen. Daher gibt es jetzt schon eine große Anzahl installierter Messgeräte, die in Betrieb sind. Er bemerkt, dass der Parallelbetrieb von analogen und digitalen Zählern Mehrkosten verursacht, so dass ein schneller Umstieg des Gesamtsystems vorzuziehen wäre. Proidl sieht Vorteile für Kunden, Lieferanten und Netzbetreiber und Smart Meter als wesentlichen Bestandteil der Energiewende und einer erneuerbaren Energieversorgung.

(Die Beraterfirma Cap Gemini hat ein kurzes Paper zum Stand des Smart Meter-Marktes in Europa 2009 veröffentlicht. In diesem werden für Österreich ausschließlich schon implementierte Testläufe verzeichnet.)

Walter Peissl sieht beim Endkunden nur bedingt Vorteile für die Energiewende durch den Einsatz von Smart Metern. Alle Einsparungspotentiale im Haushalt sollen im Wesentlichen durch Lerneffekte erziehlt werden. Diese konnten in der Forschung bisher nicht beobachtet werden; notwendig wären sind aber für die geforderte Energieverbrauchsverhaltensänderung. Energieunternehmen haben, laut ihm, bisher auch darauf verzichtet, ernsthaft mit ihren Kunden darüber zu sprechen.

Najda Shah sieht speziell in der österreichischen Umsetzung der EU-Richtlinie Problematiken aufgrund der ungenauen Ausformulierung. Sie kritisiert, dass es ursprünglich um Energiesparen ging und dass Konsumenten regelmäßig zeitnah Verbrauchsinformationen und Abrechnungen bekommen. Durch den Regulator wird in der Umsetzung aber ein so starker Zeitdruck erzeugt, dass dem Datenschutz hier kaum Beachtung geschenkt wird. Nichts sei fixiert, welche Standards, welche Sicherheitsprotokolle hier eingehalten werden müssten.

Harald Proidl war ab hier bemüht zu bemerken, dass Datenschutz der Regulierungsbehörde immer wichtig gewesen wäre, aber dass sie nicht die Ermächtigung haben, hier eine Verordnung zu schreiben; sie hätten schlicht keine Kompetenz dafür. Es gebe aber ein Monitoring, in welchem Unternehmen im Rollout der Smart Meter auf die Finger geschaut wird, ob das Datenmanagement ordnungsgemäß funktioniert und alle Sicherheits-Aspekte erfüllt werden.

Walter Peissl merkte an auf die Frage der Moderatorin, dass Datenschutz im Grunde sehr weit gefasst ist; Sobald jemand einem Vertrag zustimmt, ist man zumindest als Unternehmen aus dem Schneider. Das ist die Mindestanforderung an die bestehenden Normen. Er zieht zur Erklärung das 4th Amendment der US-Verfassung heran, das Hausrecht, als einer der Wurzeln des Privatrechts. Die Möglichkeit des Monitorings direkt im höchstpersönlichen Lebensbereich kann aus soziologischer Perspektive einen wesentlicher Eingriff darstellen in das Freiheitsgefühl jeder Person. Durch die Struktur der Energieentnahme kann man zB erkennen, wie viele Personen in einem Haushalt leben, auch wenn man nicht Einzelgeräte unterscheiden kann. Ein Missbrauch der Daten kann hier leicht stattfinden; und Daten, die einmal da sind, werden immer auch zu anderen Zwecken verwendet als den ursprünglich intendierten. Smart Meter sind eine Möglichkeit, uns digital über die Schulter zu schauen: und das nicht an öffentlichen Plätzen, sondern zu Hause. Ein Datenschutz-Gütesiegel für Smart Meter wäre nach Peissl eine sichtbare Möglichkeit, Konsumenten die Sicherheit der Geräte zu zeigen.

Die Debatte im Anschluss brachte eine Vielzahl an Problematiken der Smart Meter zum Vorschein: Marco Schreuder von den Grünen versuchte zwar, noch einmal auf die positiven Effekte der Smart Meter hinzuweisen und sieht gleichzeitig den Datenschutz als größten Stolperstein des Systems an. Erich Möchel brachte noch das technische Beispiel, dass Smart Meter über ein Schmalband-System untereinander Informationen austauschen wie ein Peer-2-Peer-Netz, um den nächsten Netzwerkknoten zu erreichen, von wo aus Daten weitergesandt werden; und dass diese Kommunikation sehr leicht mitgehört werden kann. Dazu kam noch der Einwurf, dass Smart Meter fernwartbar sein müssen und daher auch über das Kontrollnetz gehackt werden könnten. Das Szenario der 5.5 Millionen abgestürzten Smart Meter Österreichs machte schnell die Runde; die ganze Nation wäre lahm gelegt. Ein solches Szenario kompromitierter Datensicherheit hätte enorme wirtschaftliche und menschliche Folgen.

Das gilt es, nach bestem Wissen zu vermeiden.

Schwierigkeit mit den Einheiten

Gedanken, Netz, Tippfehler November 8th, 2010

Die Mercer-Studie ist zwar schon ein Weilchen her, aber das Netz vergisst bekanntlich nicht. Ich auch nicht, wenn ich mal einen Fehler gefunden (und den Link gespeichert) habe. Die Korrektur von Fehlern interessiert im heutigen Medienbetrieb ja niemanden, weshalb es vollkommen ausreicht, den Link zu speichern und nicht sofort einen Screenshot anzufertigen. Die Meinung, es gäbe nichts älteres als die Zeitung von gestern, wird halt eins zu eins ins Web übertragen. Von Internet-Medienkompetenz ist es bei dieser Übertragung einer Überlegung, die für ein gedrucktes Medium angestellt wurde, dann aber nicht weit her. Während die Zeitung von gestern im Mistkübel oder in der Nationalbibliothek landet und damit dem unmittelbaren Zugriff entzogen wird, bleibt der Zugriff im Netz halt – leider, leider – bestehen. Laufende Korrekturen des Archivs wären für die Vermeidung immerwährender elektronischer Häme halt unabdingbar.

In diesem Fall ist der folgende Satz zum Wiener Klimaschutzprogramm, kurz Klip, der Höhepunkt des Standard-Artikels:

“Ein Ziel war, bis 2010 jährlich 2,6 Tonnen CO2-Äquivalent einzusparen. Bereits im Jahr 2007 wurde eine Reduzierung um 2,9 Tonnen erreicht.”

Wenn sich die Stadt Wien im Rahmen ihres Klimaschutzprogrammes tatsächlich die Reduzierung von 2,6 Tonnen CO2-Äquivalent vorgenommen hätte, und nicht die von 2,6 Millionen Tonnen, dann hätte das Klimaschutzprogramm wahrscheinlich zu einem bedeutend höheren Medienaufkommen geführt, als es das tatsächlich getan hat.

Musings on the Future of Digital Media – Software or Being connected

Computer, Gedanken, Hardware, Medien, Netz, Software November 3rd, 2010

This is the third and last part of my series concerning my ideas on the future of digital media. After discussing the ’net in the first and the hardware to get access to it in the second installment, i will now try to cover the software part of connectedness.

I have disabled comments for this post. For discussion of this and the other two related articles, please head over to wbf2010.at. Reopened comments.

Software

After having successfully established the possibility of getting connected with everybody at all times, software defines all functionality building upon this universal connectedness. Software tries to inscribe specific usage scenarios into itself, but it has to be continuously adapted because of users utilizing the software in ways not intended by it’s programmers in the first place. The way of the connected masses will always stretch the limits of published software, just as the connected few are the most powerful group structure for the basic innovation of functionality in the first place.

Since all software is written in structured programming languages, written pieces of software should be treated like every other wirtten piece in every other language, especially when it comes to patenting. Therefore, software should be treated only by copyright laws and not by patenting laws.

Social Media

Social Communications and Collaboration is considered one of the top 10 strategic technologies for 2011 by Gartner. As such, it was not the hardest prediction to make, since Facebook now captured half a billion people, of which 50% log in on any given day. What renders 2011 special in the development of Social Media is that it will be the first year of aggregating fast mobile access and advanced internet technology in its full potential.

Content & Meaning

The ’net promises to connect every human being on earth with every other. Social Media are structuring and restructuring these connections continually. The content pushed into the Social Media space as well as the connections of the content within the Social Media space provide value and meaning for both the site providing the possibility of creating connections and the users getting connected. Meaning is subjective and always subject to the eye of the beholder. Therefore, the value of specific meanings to people may vary in the emphasis put on the meaning of content or that of connections.

Connecting Content

Handling content is no longer a problem for each Social Media site. The type of content is of no importance, since major platforms for all types of media are already in existence. Further inroads can be made only by connecting content of the same or different users between different sites and therefore allowing users to accumulate a digital identity on a number of sites and in a number of graduations, promoting different parts of her or his digital identity on different sites. A digital identity describes all interconnected traces of a specific user within the digital realm, even if the connections are not provided by the user himself. Users connecting their digital identity to another automatically become part of the other.

The future must lie in the evolution of connection control. Current Social Media platforms provide their users only with a low level of connection control. Privacy describes in part what connection control is about but puts emphasis on the content and not on the connections of a digital identity. Full connection control needs to encompass both parts in full. Diaspora seems to incorporate some understanding of the need to recover control not only over oneselfs content but also over ones connections.

Group sizes

The evolution of media in general is a drive towards individualization and separation especially of those small groups, humankind is used to live in. As crowds are getting smaller and smaller in real life, virtual crowds are getting larger and larger. The ’net has had a deep and profound impact on human society, since it separates them in the physical world, only to drive them back together in the virtual.

Blogging

Blogging cannot be considered a social media. It is quite lonesome, as it fundamentally incorporates the idea of writing a series of articles alone on a single site. All social elements of blogging are secondary of nature and created through active participation either by readers for example through comments or by the blogger himself. The blog content will always trump all social elements provided.

Blogs are discourse-machines. Contributing to an ongoing discourse creates links – or the possibility of links – between thematically connected blog entries. These discourses are no longer remaining in the virtual, but with the inception of the Barcamp, a discourse can be taken to the physical realm easily.

Blogging is as well already an established journalistic form, even if only vaguely defined. The one leading principle of blogging is the blogger. She or he remains at the core.

Conclusion

We are reaching the end of the transition period from analog to digital media. The internet as digital universal transmission platform started to act as a transmedial aggregator for digitalized content. Social Media describes a specifically connected type of content, which always relates to the digital identity of someone. Connecting content to establish a true digital identity in a reasonable, secure and private manner is the next big challenge, regardless of platforms or sites.