Sonntag, 11. März 2007

Forscher brechen Lichtgeschwindigkeitsbarriere

Zwar wurde nur "Licht" schneller als mit Lichtgeschwindigkeit bewegt, also beschleunigt. Dennoch könnte dieses gelungene Experiment mit Lichtgeschwindigkeit die Welt der Telekommunikation in Zukunft dramatisch verändern, siehe auch slashdot Meldungen [1] [2].
clipped from www.cbc.ca

Scientists have finally exceeded the speed of light, causing a light pulse to travel hundreds of times faster than normal.

It raced so fast the pulse exited a specially-prepared chamber before it even finished entering it.

The experiment is the first-ever evidence of faster-than-light motion.
The scientific statement "nothing with mass can travel faster than the speed of light" is an entirely different belief, one that has yet to be proven wrong. The NEC experiment caused a pulse of light, a group of waves with no mass, to go faster than light.
For the experiment, the researchers manipulated a vapour of laser-irradiated atoms that boost the speed of light waves causing a pulse that shoots through the vapour about 300 times faster than it would take the pulse to go the same distance in a vacuum.
The NEC researchers published their results in this week's issue of the journal Nature.

Samstag, 10. März 2007

Freebase - Die Web 3.0 Datenbank der Zukunft

Danny Hillis, Guru für künstliche Intelligenz hat eine frühe Version der ersten großen Web 3.0 Anwendung mit dem Namen Freebase veröffentlicht, dessen erkenntnistheoretische Mission den Weg von Google und Wikipedia beschreitet. "Wir versuchen die Weltdatenbank zu schaffen, mit allen Informationen dieser Welt", sagte er zu der New York Times. Tim O'Reilly, Begründer des Web 2.0 und Benutzer der Alpha Phase, sagt über Freebase "es arbeitet wie ein System, mit dem man die Synapsen eines globalen Gehirn aufbaut".
clipped from radar.oreilly.com
Freebase Will Prove Addictive
Danny Hillis' latest venture, Metaweb, is about to unveil its first product, the aptly named freebase, tomorrow. While freebase is still VERY alpha, with much of the basic functionality barely working, the idea is HUGE. In many ways, freebase is the bridge between the bottom up vision of Web 2.0 collective intelligence and the more structured world of the semantic web.
Metaweb has slurped in the contents of several of the web's freely accessible databases, including much of wikipedia, and song tracks from musicbrainz. It then turns its users loose on not just adding more data items but making connections between them by filling out meta tags that categorize or otherwise connect the data items, using a typology that can be extended by users, wiki-style.
Metaweb still has a long way to go, but it seems to me that they are pointing the way to a fascinating new chapter in the evolution of Web 2.0.
Freebase nutzt die brandneue CC Attribution 3.0 License, was einen weiteren Schritt nach vorne bedeutet. Nach vielen Kommentaren von Experten zu seinem Freebase Bericht hat Tim O'Reilly mittlerweile einen interessanten Eintrag über das semantische Web verfasst, siehe "My Outdated View" of the Semantic Web. Die Entwicklung des Internets von seinen Anfängen bis hin zum geplanten Web 3.0 kann man in diesem deutschen Text gut nachlesen.

mehr über Freebase erfährt man hier:

Herald Tribune
Creating a database to organize the Internet

The New York Times
Start-Up Aims for Database to Automate Web Searching

ZDNet
Metaweb: Creating the world’s searchable global brain

Search Engine Watch
Freebase: the Next Google-Killer or Over-Hyped Start-Up

Techcrunch
This is cool, unless it achieves consciousness and kills us all


Creative Commons
Metaweb’s Freebase using CC Attribution 3.0 License

Wikipedia
Metaweb Technologies, Inc.

YouTube - Ein schwerer Klotz am Bein von Google?

YouTube kommt einfach nicht aus den negativen Schlagzeilen. Erst die geplatzen Deals mit Rechteinhabern, nun der Analysten Kommentar, dass YouTube im gesamten Jahr 2006 nur lächerliche 15 Millionen Dollar an Einnahmen generiert hat. Dem gegenüber steht unter anderem die Summe von 1650 Millionen, die Google für YouTube bekannterweise in Form von Aktien auf den Tisch gelegt hatte.
A tidbit in a regulatory filing late last week revealed that Google paid a whopping 100 times revenues for the video-sharing Web site YouTube. Perhaps more remarkable than the sticker shock, however, was the rhetoric employed by Google’s chief executive, Eric Schmidt, to justify the deal. “If you can build a sustainable eyeball business, you can always find clever ways to monetize it,” Mr. Schmidt told a group of investors Tuesday.
Many an Internet executive uttered that sentence, or a variation of it, in the late 1990’s, only to eat his or her words a few years later.
“YouTube has ended up being a management, operational and legal overhead and a drag,” analyst Trip Chowdhry of Global Equities Research told the Red Herring.
Mr. Schmidt has acknowledged the media companies’ concerns,
while it may be awhile before YouTube’s value becomes apparent, it is by far the most popular video-sharing site. Eventually, he suggested, those “eyeballs” will represent real money.

Südkorea plant Roboter Gesetze

Ende 2007 möchte Südkorea sein erstes Gesetz für den ehtisch korrekten Umgang mit Robotern veröffentlichen. Das Land plant massive Investition in diesen Zukunftsmarkt und benötigt nun verbindliche Regeln für Hersteller und Menschen. Dabei werden ein Teil der Robotergesetze von Asimov die Grundlage für das Gesetz bilden.
clipped from news.bbc.co.uk

Robotic age poses ethical dilemma
The South Korean government has identified robotics as a key economic driver and is pumping millions of dollars into research.
"The government plans to set ethical guidelines concerning the roles and functions of robots as robots are expected to develop strong intelligence in the near future," the ministry of Commerce, Industry and Energy said.

The new charter is an attempt to set ground rules for this future.


"Imagine if some people treat androids as if the machines were their wives," Park Hye-Young of the ministry's robot team told the AFP news agency.


"Others may get addicted to interacting with them just as many internet users get hooked to the cyberworld."

The new guidelines could reflect the three laws of robotics put forward by author Isaac Asimov in his short story Runaround in 1942
Key considerations would include ensuring human control over robots, protecting data acquired by robots and preventing illegal use.

Freitag, 9. März 2007

Ungleiche Beteiligung: Wie man mehr Nutzer zu Beiträgen ermutigt

Sehr interessanter Artikel. Kann dieses Phänomen zu 100% bestätigen, dass 90% der registrierten Benutzer einer Seite, Forum, Portal etc. höchstens zuschaut und nicht interagiert. Und 1% bilden die kritische Masse, die das Gebilde aktiv am Leben erhalten.
clipped from www.usability.ch
Zusammenfassung
In den meisten Online-Communities sind 90% der Benutzer Kiebitze, die
nie selber etwas beitragen, 9% schreiben ein bisschen hinein und 1% der Benutzer sorgen für fast alles, was dort geschieht.
Im Unterschied dazu ist
eine winzige Minderheit der Benutzer gewöhnlich für einen überproportional
grossen Anteil der Inhalte und anderer System-Aktivitäten
verantwortlich. Dieses Phänomen der ungleichen Beteiligung
hat Will Hill in den frühen 1990er Jahren erstmals gründlich
erforscht

Die Beteiligung der
Benutzer folgt oft mehr oder weniger einer 90:9:1-Regel:


  • 90% der Benutzer sind
    Kiebitze
    (d. h. sie lesen und beobachten, ohne etwas
    beizutragen).

  • 9% der Benutzer tragen
    von Zeit zu Zeit etwas bei
    , haben aber überwiegend andere
    Prioritäten.

  • 1% der Benutzer
    beteiligen sich stark und sind für die meisten Beiträge
    verantwortlich:
    Manchmal scheint es, als führten sie gar kein
    eigenes Leben, weil oft schon Minuten nach irgendeinem
    Ereignis ihr Kommentar dazu erscheint.

Forscher bringen Computern mit Wikipedia Intelligenz bei

Mehr Grips dank Wikipedia: Forscher am Technion in Israel wollen Computern menschliches Denken beibringen und füttern sie dazu mit dem Wissen aus der Online-Enzyklopädie Wikipedia.

Mit enzyklopädischem Wissen ausgerüstet sollen Computer nicht nur endlich intelligenter werden, sondern auch so etwas wie gesunden Menschenverstand entwickeln und vernetztes Denken über thematische Grenzen erlernen. Kurzum: Die Rechner sollen sich die menschliche Art zu Denken aneignen.

Dieses hehre Ziel der Künstlichen Intelligenz soll erreicht werden, indem der Maschine der Inhalt der Online-Enzyklopädie Wikipedia eingeflösst wird. Zumindest haben Wissenschaftler des Technion, der ETH Israels, Entsprechendes vor. Laut Evgeniy Gabrilovich und Shaul Markovitch von der Abteilung Computerwissenschaften der in Haifa ansässigen Forschungsstätte soll das Verfahren dazu genutzt werden, um bessere E-Mail-Spam-Filter, Websuchmaschinen, die aussagekräftigere Ergebnisse liefern, und intelligente Informationssammeldienste zu bauen.

Donnerstag, 8. März 2007

Stecken Google und Wikipedia unter einer Decke?

Diese Entwicklung habe ich selber schon beobachtet. Wikipedia stürmt die Top 10 von Google. Nahezu egal welchen Suchbegriff man eingibt, man landet fast immer bei Wikipedia. Und das obwohl bzw. gerade weil Google ein möglichst genaues Abbild der Realität im Index der Suchmaschine widerspiegeln möchte (ohne Manipulation der Reihenfolge der Treffer). Da die Bekanntheit von Wikipedia jedoch enorm zunimmt, steigt, neben den vielen Links evtl. auch durch die vielen Klicks auf die Wikipedia Treffer, das Ranking innerhalb des Index von Google enorm.

Google's position is that its search results are as pure as possible, free from human intervention. The implication is that they're a reflection of reality, as found on the Internet. But by determining the order in which our queries are answered, Google actually interprets, recreates and reinforces reality millions of times a day.

In fact, Google's only real competition for master manipulator of reality is Wikipedia. On paper, they're opposites -- Google locks everybody out of its reality-defining process, whereas Wikipedia's definition of reality is whatever its crowd of editors agrees on. In practice, though, the two are in cahoots. Wikipedia pages are steadily climbing the Google rankings for just about every imaginable search term. So reality as defined by mob rule is being promoted by reality as defined by the mysterious computer program. Fantastic.

Dienstag, 6. März 2007

Google mit neuer Kooperation - Bayerische Staatsbibliothek wird Book Search Partner

Der US-Suchmaschinendienstleister Google hat mittels der Bayerischen Staatsbibliothek den ersten deutschen Partner für sein Buchsuche-Projekt gewonnen. Das kalifornische Unternehmen scannt circa eine Millionen urheberrechtsfreie Werke ein und macht sie im World Wide Web verfügbar.

Quellen: WirtschaftsWoche, Frankfurter Allgemeine Zeitung, derStandard, Berliner Morgenpost, Focus Online, Heise Newsticker, MDR, ORF

Google hat sich zum Ziel gesetzt, die »… Informationen der Welt zu organisieren und allgemein nutzbar und zugänglich zu machen«. Dazu will das Unternehmen, neben vielen weiteren Bestrebungen, wie z.B. der Recherche nach Patenten, eine gewaltige Online-Bibliothek mit 15 Mio. Büchern schaffen. Google kooperiert für dieses Vorhaben mit international bedeutenden Universitätsbibliotheken. Dazu gehören die Universitäten von Oxford, Harvard und Stanford. Auch die Universität Complutense Madrid als auch die Bibliothek von Barcelona arbeiten schon mit Google zusammen. Die Bayerische Staatsbibliothek ist aktuell bereits die zwölfte Bibliothek, die sich dem Unterfangen anschließt und laut dem bayrischen Wissenschaftsminister Thomas Goppel die erste Bibliothek im deutschen Sprachraum, die Google ihre Wissensschätze zur Verfügung stellt. „Mit der heutigen Bekanntgabe öffnen wir unsere Bibliothek buchstäblich der ganzen Welt", sagte Bibliotheksdirektor Rolf Griebel bei der Pressekonferenz.

Auch die Bayerische Staatsbibliothek zieht aus der Zusammenarbeit mit Google ihren nutzen. Der Suchmaschinenbetreiber übernimmt „den Großteil der Kosten“ des Münchener Projekts, sagte Jens Redmer, Leiter Google-Buchsuche Europa, dem Handelsblatt. Google konserviert im gleichen Atemzug viele Bücher, die andernfalls zum Schutz vor dem säurebedingten Papierzerfall so oder so digitalisiert werden müssten. Probleme mit dem Urheberrecht gebe es nicht. Das weltweite Vorhaben sei ein „strategisches Investment in die Qualität der Suchergebnisse“, sagte Redmer.

Frage des Urheberrechtes
In den Vereinigte Staaten wirft Konkurrent Microsoft dem Kontrahenten systematische Urheberrechtsverletzung vor. Google erfasse in einigen amerikanischen Bibliotheken auch kopiergeschützte Werke. Wenn Verlage oder Autoren nicht möchten, dass ihre Bücher digitalisiert werden, können sie Google darüber benachrichtigen. Google schließt sie in diesem Fall von der Digitalisierung aus. Diese Praxis des Opt-out greift Microsoft scharf an „Google sagt im Prinzip einfach nur: Vertraut uns und lasst uns kopieren’“, sagte Microsoft-Anwalt Thomas Rubin vor dem Verband der amerikanischen Verleger in New York. Microsoft arbeitet ebenso an der Erfassung der Weltliteratur. Dazu ob sich Microsoft um das Münchener Projekt beworben hatte, wollte ein Sprecher des Softwareherstellers keinen Kommentar abgeben. Google weist die Anschuldigungen Microsofts entschieden zurück. Der Konzern arbeite im Buchprojekt in Übereinstimmung mit internationalem Copyright, das den „fairen Gebrauch“ vorsehe. Er verzichte auf das Kopieren, wenn ein Rechteinhaber dagegen Einspruch erhebe.

Auch Werke von Goethe und Schiller werden digitalisert
Mit mehr als neun Mio. Bänden und 49.000 laufenden Zeitschriften zählt die 1558 gegründete Staatsbibliothek zu den bedeutensten Forschungsbibliotheken der Erde, einzig 89.000 mittelalterliche Handschriften und 20.000 Inkunabeln lagern an diesem Ort. Sie ist neben den reinen Universitätsbibliotheken der Ludwig-Maximilians-Universität und der Technischen Universität für die Versorgung der Studierenden der beiden Universitäten zuständig.

Google wird Werke zum Einscannen beziehen, bei denen der Schutz des geistiges Eigentums abgelaufen ist. Zu den Beständen zählen ferner Texte aus Spezialsammlungen und Raritäten, die bisher nur in den Leseräumen der Bibliothek eingesehen werden konnten. Neben zahlreichen wissenschaftlichen Arbeiten und kostbaren alten Handschriften sowie Drucken aus Europa und Asien enthält die Sammlung der Bibliothek auch zahlreiche lizenzfreie Werke in Französisch, Spanisch, Latein, Italienisch und Englisch, die ihren Weg hinein in die Google Datenbankfinden sollen. Auch Werke von Johann Wolfgang von Goethe, Friedrich Schiller und den Gebrüdern Grimm werden bei dem Projekt digitalisiert.
Ein mehrsprachiger Suchindex soll das Retrieval erleichtern. Leser rund um den Globus werden künftig diese Werke per Internet Zugriff im Volltext durchforsten können und als "Vollständige Ansicht" in der eingescannten Version abrufen und herunterladen können. Was auch immer man von einer Welt halten will, die auf der Festplatte besitzen muss, was sie nicht im Kopf hat – Forschung und Wissenschaft werden letztlich aus der bayerisch-kalifornisch Kooperation einen Nutzen ziehen. Und Google wird mit Hilfe des schriftlichen Kulturerbe Deutschlands weltweit noch mehr Buchliebhaber motivieren ihre Suchfunktion einzusetzen.

Montag, 5. März 2007

Video Walkman von Sony! NW-A800

18 Monate nachdem Apple seinen iPod video auf den Markt gebracht hat, zieht Sony gegenwärtig mithilfe eines Konkurrenzproduktes nach. In der NW-A800-Serie (offizielles Werbevideo) erscheinen drei verschiedene Modelle, die ausschließlich in ihrer Speicherkapazität unterschiedlich sind.

erster kurzer Testbericht auf Englisch, siehe Video

Diese Modellreihe besitzt einen zwei Zoll großen Flüssigkristallbildschirm mit einer Auflösung von 240 x 320 Bildpunkten (QVGA). Videos können waagerecht als auch senkrecht betrachtet werden. Der benutzte Flash-Speicher ist je nach Modell 2, 4 oder 8 Gigabyte üppig. Der Video-Walkman spielt neben WMA, MP3 und WAV außerdem auch Sonys ATRAC-Format ab. Es kann eine Akkulaufzeit von 30 Stunden erreicht werden.Betrachtet man Videos anhand einer Datenrate von 768 Kbps, hält die wiederaufladbare Batterie sieben Stunden. Der Walkman ist 44 Millimeter breit, 88 Millimeter und 9 Millimeter dick. Er wiegt 53 Gramm. Das Modell NW-A805 (2GB) kostet 180 Euro, NW-A806 (4GB) 230 Euro und NW-A808 (8GB) 300 Euro. Nach Angaben von Sony wird der neuartige Video-Walkman ab April im Handel verfügbar sein. Bereits im Jahr 1998 hatte Sony ein vergleichbares Gerät auf den Markt gebracht, das für 820 US-Dollar Video-Kassetten abspielen konnte.

Sonntag, 4. März 2007

"Wir laufen Gefahr, geistarm zu werden"

IT-Experte warnt vor Bedrohung durch die Internet-Gesellschaft, aber auch vor digitaler Armut (um den ganzen Beitrag lesen, auf den roten Link klicken).
clipped from www.newsclick.de
"Deutschland ist schlecht vorbereitet in die IT- Gesellschaft geschlittert", sagt Reza Asghari. "Wir haben die Folgen der neuen Technik völlig unterschätzt", behauptet der geschäftsführende Leiter des Fachhochschul-Instituts für E-Business.
Dabei ist der Professor an der Fachhochschule Braunschweig/Wolfenbüttel jemand, der an vorderster Front für den Einsatz von E-Government und E-Business wirbt. Und Asghari geht noch weiter: "Wir laufen Gefahr, in der IT-Gesellschaft geistarm zu werden." Das sei wie bei Atomphysikern, die so begeistert vom Energiepotenzial der Technologie sind, dass sie ihre vernichtende Kraft völlig übersehen.

Samstag, 3. März 2007

Semantic Web - Die Verknüpfung von Daten

Suchprogramme im Internet können nur nach konkreten Informationen suchen, deren Bedeutung oder Verknüpfung mit anderen Informationen aber nicht verstehen.
clipped from oe1.orf.at
Das World Wide Web liefert eine schier unendliche Fülle an Informationen auf den Schreibtisch und das auch noch schnell. Doch Suchmaschinen haben ihre Grenzen: Sie können nur nach Wörtern suchen und nicht nach deren Bedeutung. Gibt man in eine Suchmaschine zum Beispiel das Wort "Kohl" ein, kann diese nicht wissen, ob man das Gemüse, den Politiker Helmut Kohl oder vielleicht sogar "Kohle" gemeint hat. Hier soll das so genannte "Semantic Web" Abhilfe schaffen.

Der Begriff "Semantic Web" fasst Entwicklungen zusammen, die das Internet "intelligenter" und nutzerfreundlicher machen sollen. Ziel ist es, dass das World Wide Web die Bedeutung von Informationen verstehen kann und so die Suche nach ihnen erleichtert.

Auf der Suche nach dem Web 3.0

Kaum ein Buzzword hat in den letzten Monaten für so viel Diskussion und Aufregung gesorgt wie „Web 2.0“. Manche sahen darin die Renaissance bereits seit Jahren verfügbarere Technologien, andere - mit Dollarzeichen in den Augen - die zweite Phase der New Economy. Doch was genau steckt hinter dem Begriff? Und noch eine viel wichtigere Frage: Wann kommt Web 3.0?
clipped from www.kernpunkt.de

Es gibt gar kein Web 2.0. Denn für eine Version 2.0 des Webs oder Internets hätte es eine Version 1.0 geben müssen. Das wiederum setzt eine durchdachte und strategische Versions- und Releaseplanung des Internets voraus. Und diese gibt es bei einem Netzwerk, das mittlerweile über eine Milliarde (in Zahlen 1.000.000.000) Menschen miteinander verbindet, nicht.

Ein Blick in die Vergangenheit des Internets könnte hierbei helfen

Web 0.1 – Am Anfang war der Kalte Krieg, oder?
Aus einem Forschungsprojekt des US-Verteidigungsministeriums, entstanden die ersten Netzwerke zwischen Universitäten und Forschungseinrichtungen mit dem Ziel die knappen Rechenkapazitäten effektiver zu nutzen. Im Laufe der 80er Jahr setzte sich dann der Begriff Internet durch und ersetzte das zur militärischen Nutzung gestartete ARPANET (Advanced Research Projects Agency Network). 1982 wurden im Fachbereich Informatik der Universität Dortmund erste Netzwerkdienste angeboten: Das Internet war in Deutschland angekommen.