Monday, 6. March 2006

Bildung Aktuell

Ich hoffe ja schon seit längerem, dass die Ausgaben von mindestenshaltbar.net als PDFs zur Verfügung gestellt werden. Ich bin kein großer Leser von längeren Online-Texten.
Soeben bin ich aber über eine Kurz-Notiz im Horizont gestolpert, dass Karp mit einem eMagazin ein "völlig neues Medium auf dem österr. Markt" gebracht hat.
Mit "Bildungaktuell" hat die Österreichische Medienlandschaft ein neuartiges digitales Bildungsmagazin bekommen, das die Interaktivität des Internets mit der Haptik des Papiers vereint.
Da mans über Google nicht findet hier der zugehörige Link:
-> http://www.bildungaktuell.at/

Ich bin "beeindruckt", gereadzu sprachlos angesichts dieser Interaktivität. Die PDFs sind mit drei bis vier Links ausgestattet, welche ich bequem zum weitersurfen verwenden kann :-) Bin schon gespannt auf weitere Interaktivität. Karp denkt hierbei aber vor allem an die Werber und spricht im horizont von TV-Spots und streaming audios, welche ins PDF eingebaut werden könnte (Als ob die drei Sekunden bis das jetzige PDF braucht um geöffnet zu werden, nicht schon genug wären).

Naja, ich will nicht hussen, sondern mit der Zeit wird sich sowieso von alleine herausstellen, ob dieses innovative Format Akzeptanz im Markt findet. Äußerst äußerst überrascht bin ich aber über die Behauptung, dass die ersten 3 Ausgaben 70.000mal heruntergeladen wurden. Ich würde mal sagen, dass ist eine glatte Lüge, nehme diese Behauptung aber gerne wieder zurück, sobald der Anwaltsbrief bei mir ankommt.

Oder bin ich etwa der Letzte hier in der Blogosphäre der von diesem Magazin etwas mitbekommt, und ihr lest das alle tatsächlich??

spam

In meinem Freundeskreis verursachte mein letztes Posting anscheinend etwas Verwunderung. Zumindest war für sie meine Aufregung nicht ganz nachvollziehbar, und ich musste erst erklären, worum es denn bei der Sache geht.
Vielleicht hab ich etwas über die Strenge geschlagen (und deshalb hab ich mittlerweile den Text des letzten Postings durch ein Bild ersetzt), und vielleicht hab ich da tatsächlich ein Unschuldslamm gescholten, aber SPAM nervt einfach gewaltig. Trotz server- als auch client-seitigen Filters kommen noch immer täglich an die 10-15 spam-mails durch. Und mittlerweile machen sich auch schon die Spam-Kommentare (trotz Captchas) bei mir im Blog breit. Und das ärgert mich. Und in meinem Ärger bin ich halt auf einen x-beliebigen Spammer los gegangen.
Nun gut, aber war Thomas seine Mail tatsächlich Spam? Sie schien nicht automatisiert versendet worden zu sein, es war seine Telefonnummer als auch seine korrekte Anschrift in der Mail enthalten. Also ein, wie er beteuert, legitimer Versuch einer Aufnahme einer "Geschäftsbeziehung", wie dies tagtäglich hundertfach der Fall ist.
Die Grenze zwischen Spam und legitimer Kontakaufnahme scheint fliessend zu sein. Auch die Firma Knallgrau hatte schon in seiner Vergangenheit Aktionen, bei denen wir hunderte Firmen anriefen (liessen!!). Stets mit den besten geschäftlichen Absichten. Und doch scheinen mir diese "Marketing"-Aktionen im heutigen Licht äußerst fragwürdig (und übrigens war auch die Abschluss-Quote irgendwo bei null).
Meines Erachtens ist aber Thomas sein Mail eindeutig als Spam zu werten. Erstens ist der Text copy&paste von irgendwo übernommen worden (Google nach "ich habe heute ihre website"), und zweitens halte ich Linktausch an sich schon mal für keine legitime (und auch nicht wirksame) Methode zur PageRank-Verbesserung.
Mir tut es also nicht wirklich leid, hier mit meinem Posting deutlich zu machen, dass diese Art von Mails absolut unerwünscht ist. Sehr wohl tut es mir aber leid Thomas' vollen Namen mitsamt Adresse und Telefonnummer in Kombination vulgärer schimpfwörter in den Google-Index gebracht zu haben (hoffentlich "vergisst" google das bald wieder). Ich denke Thomas wusste es tatsächlich nicht besser was er da tut. Ich mit meinem Posting aber schon. Sorry.

Thursday, 2. March 2006

smi schreibt

-> Mediengesetz neu - eine Nachbetrachtung

Wednesday, 1. March 2006

naive frage du jour

ach ja, frage an die leserschaft: gibt es suchmaschinen, welche no-follows absichtlich ignorieren? bzw. gibt es gar suchmaschinen welche explizit nur seiten indizieren, welche eine no-follow robots.txt haben? kann die indizierung bzw archivierung von online-inhalten in irgendeinerweise eingeschränkt werden (zumindest juristisch)?

video surveillance

i might consider unsubscribing the schneier-feed again. the stuff he posts is so scary, that it usually ruins my day.
-> Face Recognition Comes to Bars
-> BioBouncer

It doesn't matter at all whether the company BioBouncer has "good" intentions or not, it is just another step towards complete surveillance, which will be abused by someone at some (not so distant) point.

Schneier also posted about a story of "attackers" using existing code, that allows eavesdropping for the police, in the Vodafone's mobile phone software, in order to spy on politicians. Dont get me wrong, but i think this is actually a great way to make politicians aware of these problems. I would really like to see a video-surveillance-project, that streams the private houses of politicians (or at least their "public entrances") to the net, and exploit that information ("hey, schüssel junior was playing in the garden, although his mom said he was sick", "oho, gusenbauer smokes pot"). Maybe this is the only way, to actually make them clear, that we cant keep on sacrifizing privacy in the name of security. we need to stop the insanity now.

Friday, 17. February 2006

SQL Log File Analysis

Quite some time ago i provided a patch for Helma which allows finer-grained SQL Log File Analysis, by recording the time, the table, the type and the sql itself. Back then i quickly calculated some stats for twoday.net:
Type of DB-Requests: 98% Selects, 1,9% Updates, 0,1% Inserts, 0,01% Deletes
Used Tables: 53% AV_TEXT, 25% AV_SKIN, 14% AV_IMAGE, 8% others
40 SQL-Statements per second


Well regarding the distribution not much has changed. What has changed is, that we are now seeing about 200-300 SQLs per second, despite an object-cachesize of 120.000. So, we thought it was about time to take a closer look at the statements themselves. And this time, not the relative number of requests, but the relative amount of time spent was being looked at.
R> round(tapply(data[,3], data[,1], sum) / sum(data[,3]), 3)
SELECT_ACCESSNAMES         SELECT_ALL       SELECT_BYKEY  SELECT_BYRELATION         SELECT_IDS         SELECT_MAX    SELECT_PREFETCH 
            0.001              0.000              0.071              0.161              0.731              0.001              0.034 
-> A surprisingly high amount of time is being spent on fetching ids, i.e. queries, that should already have been optimized by db-indices.
R> round(tapply(data[,3], data[,2], sum) / sum(data[,3]), 3)
   AV_CHOICE       AV_FILE      AV_IMAGE     AV_LAYOUT AV_MEMBERSHIP     AV_MODULE       AV_POLL       AV_SITE       AV_SKIN     AV_SYSLOG       AV_TEXT       AV_USER	AV_VOTE
       0.001         0.001         0.077         0.006         0.015         0.000         0.000         0.065         0.085         0.001         0.685         0.065	0.000 

R> round(tapply(data[,3], data[,1:2], sum) / sum(data[,3]), 3)
                   table
type                AV_CHOICE AV_FILE AV_IMAGE AV_LAYOUT AV_MEMBERSHIP AV_MODULE AV_POLL AV_SITE AV_SKIN AV_SYSLOG AV_TEXT AV_USER AV_VOTE
 SELECT_ACCESSNAMES        NA   0.000    0.001     0.000         0.000        NA      NA      NA   0.000        NA      NA      NA      NA
 SELECT_ALL                NA      NA       NA        NA            NA        NA      NA      NA   0.000        NA      NA      NA      NA
 SELECT_BYKEY               0      NA    0.007     0.006         0.010         0       0   0.003   0.000        NA   0.032   0.013      NA
 SELECT_BYRELATION         NA   0.001    0.046     0.000         0.003         0      NA   0.012   0.071        NA   0.001   0.027       0
 SELECT_IDS                 0   0.000    0.023     0.000         0.002        NA       0   0.049   0.014     0.001   0.617   0.025       0
 SELECT_MAX                NA      NA    0.000     0.000         0.000        NA      NA   0.000   0.000     0.000   0.001   0.000      NA
 SELECT_PREFETCH           NA      NA    0.000        NA            NA        NA      NA   0.000      NA        NA   0.034      NA      NA
-> So, the biggest part of sql-time is being used for fetching IDs from the AV_TEXT-table.
-> And suprisingly already on second place is the fetching of Skins, which is especially surprising since 75% of our users have never touched a single skin.
-> On fourth place we have the fetching of images via their name.

So, which are the overall top sql-statements regarding computation time?
R> sort(tapply(data[,3], data[,4], sum), dec=T)[1:30]
286699 ms	0.178	SELECT AV_TEXT.TEXT_TOPIC FROM AV_TEXT WHERE AV_TEXT.TEXT_F_SITE  AND (TEXT_PROTOTYPE = Story and TEXT_ISONLINE > 0) GROUP BY TEXT_TOPIC ORDER BY TEXT_TOPIC"                                                                     
209549 ms	0.130	SELECT AV_TEXT.TEXT_DAY FROM AV_TEXT WHERE AV_TEXT.TEXT_F_SITE  AND (TEXT_PROTOTYPE = Story and TEXT_ISONLINE ) GROUP BY TEXT_DAY ORDER BY TEXT_DAY desc"                                                                         
136830 ms	0.085	SELECT AV_TEXT.TEXT_ID FROM AV_TEXT WHERE AV_TEXT.TEXT_F_SITE  AND (TEXT_PROTOTYPE = Story AND TEXT_ISONLINE > 0) ORDER BY TEXT_CREATETIME DESC"                                                                                  
92191 ms	0.057	SELECT AV_TEXT.TEXT_ID FROM AV_TEXT WHERE AV_TEXT.TEXT_F_TEXT_STORY  AND (TEXT_PROTOTYPE=Comment) ORDER BY TEXT_MODIFYTIME DESC"                                                                                                  
74457 ms	0.046	SELECT AV_SITE.SITE_ID FROM AV_SITE WHERE (SITE_ISONLINE > 0 AND SITE_ISBLOCKED  AND SITE_SHOW ) ORDER BY SITE_LASTUPDATE desc"                                                                   
63238 ms	0.039	SELECT AV_TEXT.TEXT_ID FROM AV_TEXT WHERE AV_TEXT.TEXT_F_SITE  AND (TEXT_ISONLINE > 0 AND (TEXT_PROTOTYPE = Story OR TEXT_PROTOTYPE = Comment)) ORDER BY TEXT_MODIFYTIME DESC"                                                    
56952 ms	0.035	SELECT AV_TEXT.TEXT_ID FROM AV_TEXT WHERE AV_TEXT.TEXT_F_SITE  AND AV_TEXT.TEXT_DAY = XXX AND (TEXT_PROTOTYPE = Story and TEXT_ISONLINE ) ORDER BY TEXT_CREATETIME desc"                                                          
49750 ms	0.031	SELECT AV_TEXT.* FROM AV_TEXT WHERE AV_TEXT.TEXT_ID "                                                                                                                                                                             
47139 ms	0.029	SELECT AV_IMAGE.* FROM AV_IMAGE  WHERE AV_IMAGE.IMAGE_ALIAS = III AND AV_IMAGE.IMAGE_F_SITE  AND (IMAGE_PROTOTYPE = Image and IMAGE_F_IMAGE_PARENT is null)"                                                                      
41664 ms	0.026	SELECT AV_USER.* FROM AV_USER  WHERE AV_USER.USER_NAME = UUU AND (USER_AUTH_TYPE = local AND USER_NAME IS NOT NULL)"                                                                                                              
-> Oha! Big surprise (at least for me). 30% of the database time is used for determining the "dynamic" HopObjects Day and Topic, which are generated by grouping over all stories of a site. 30%! Well, this should be reason enough to normalize/separate them into distinct tables.
-> The second insight was, that we dont add layouts with no skins to the res.skinpath anymore (which saves us from lots of selects to the skin-table)
-> And thirdly, we might want to consider to directly insert the img-tags into a story, instead of the image-macros, as we already did for weblife. Your WYSIWYG-editor will also thank you.

JavaScript Libraries

SitePoint gives a comprehensive overview over some of the better-known JavaScript Libraries:

-> http://www.sitepoint.com/.../javascript-libraries-and-patterns-yahoo-does-ajax

on Dojo: "The Rolls Royce of JavaScript libraries."

on Prototype: "Because Prototype is so good at making low-level scripting less painful, a number of hihger-level libraries have been built with Prototype as a basis: Most notably: script.aculo.us and Rico"

on AjaxTK: "With the recent announcement that AjaxTK would be contributed as the foundation for Apache Kabuki, an open source AJAX toolkit, its future is looking brighter."

on Yahoo! UI Library: "If there is one thing to love about this library, it’s the documentation. From day one, every available component has full API documentation as well as a short “Getting Started” guide complete with working examples."

Tuesday, 14. February 2006

und nun zu etwas ganz was anderen...

-> Atomic Blast Photos

Yahoo Design Patterns

punkt 3 in meiner liste "what web2.0 is NOT about" lautete Open-Source. Zumindest haben es bist jetzt alle großen service-provider geschafft, ihre technologien, ihre Software gut unter verschluß zu halten. Aber vielleicht ändert sich auch das noch. Yahoo geht jedenfalls einen Riesenschritt und veröffentlicht ihre UI Ajax/DHTML-Library als auch ihre Design Patterns. Ersteres ist ja angesichts der auf prototype.js-basierenden Libraries nicht mehr so weltbewegend, aber zweiteres halte ich doch für sensationell. Beispiel gefällig?
-> Object Pagination
-> Search Pagination
-> Auto-Complete
und und und...

[via zawodny]

Monday, 13. February 2006

myspace.com

knackt die "50 millionen user"-marke, und robert fasst diesen Artikel zusammen. Sehr sehr lesenswert.
-> http://www.basicthinking.de/blog/2006/02/13/das-myspacecom-phaenomen/

smeidu's nachbarhaus



Nachbarhaus
Originally uploaded by smeidu.


Search

 

About michi

michi Michi a.k.a. 'Michael Platzer' is one of the Knallgraus, a Vienna-based New Media Agency, that deals more and more with 'stuff' that is commonly termed as Social Software.

Meet my fellow bloggers at Planet Knallgrau.

my delicious

Recent Updates

My Gadgets

Credits

Knallgrau New Media Solutions - Web Agentur f�r neue Medien

powered by Antville powered by Helma


Creative Commons License

xml version of this page
xml version of this page (summary)

twoday.net AGB

Counter



berufliches
blogosphaerisches
privates
spassiges
sportliches
technisches
trauriges
Profil
Logout
Subscribe Weblog