Telószám-szemérmesség és végtelen ostobaság

Függően attól, hogy ki mennyire /*primitív*/ körökben mozog, találkozhat azzal a jelenséggel, hogy valaki a mobilszámát nem szivesen vagy egyáltalán nem adja meg a másiknak. Ahol kimondottan gyakori, például az internetes társkereső rendszer, ahol többen azzal érvelnek, hogy nem adják ki a mobilszámukat olyannak, akit nem ismernek személyesen, ami logikusnak tűnik, valójában pedig eszelős ostobaság. Magyarázom, maradva a társkeresős közeg példájánál.

Miután valaki egy társkeresőben lerótta a kötelező tiszteletköröket, ha van egy csöpp esze, megkérdezi a másikat, hogy megírná-e a Viber-, Whatsapp-, Sykpe-, Facebook-, LinkedIN-, LINE-, Threema-, Signal-, Telegram-elérhetőségét, mint másodlagos elérhetőség. Mindez több szempontból is fontos.

Technikai szempontból azért, mert ha a másik a társkeresőről kiregisztrál vagy az alkalmazás összeomlik, a felhasználó pedig az eredeti fiókjával nem tud ismét belépni az újratelepítést követően, az átlagos felhasználó már el is vesztette a másikkal a kapcsolatot, hacsak nem találja meg ismét.

Ha úgy tetszik taktikai szempontból pedig azért fontos, mert egy másodlagos elérhetőség megadása egyfajta kulturális aktus, amivel jelezzük, hogy a kapcsolat egy kicsit magasabb szintre lépett, társkeresős környezetben innentől kezdve lehet egyáltalán komolyan venni a másikat. Ha a másik bármilyen okból nem ad másodlagos elérhetőséget, minden további rá pazarolt másodperc elfecsérelt idő lehet.

Ha valaki azzal jön, hogy nem adja meg a mobilszámát olyannak, akit nem ismer személyesen, nehogy majd az ismeretlen megszállott titkos hódolóvá válva zaklassa, na ezzel kapcsolatban egy nagyon fontos dolgot a többség egyszerűen nem tud. Mégpedig az, hogy a levakarhatatlannak tűnő titkos hódolók szinte sosem abból a körből kerülnek ki, akit még nem vagy alig is ismernek. Nem, a “zaklatók” /*utálom ezt a kifejezést, lévén, hogy mindenki mást ért alatta*/ szinte minden esetben olyanok, akik az érintettet személyesen ismerik, ráadásul régebbről. Abban sincs különösebb logika, hogy valaki miért gondolja azt, hogy olyan majd kisebb valószínűséggel fogja háborgatni, akit már ismer valamennyi ideje, mint egy full idegen figura, csak egy kis ész kell hozzá, hogy rájöjjünk, miért.

Ha valakit mégis elkezd a titokzatos Don Juan kéretlen SMS-ekkel és hívásokkal bombázni, na, arra írom a leghatékonyabb megoldást: ha úgy érzed, hogy a másik zaklat, amikor hív, vedd fel a mobilod és mindegy, hogy mit mondd, ne fejezz ki semmilyen olyan visszajelzést, aminek akár pozitív, akár negatív töltése lenne, fejezz ki érdektelenséget, semlegességet. Azaz ne küldd el a kurva anyjába, ne is csicskulj be, a hallgatásoddal kifejezed a totális érdektelenséget, azaz azt, hogy még azt is leszarod, hogy a másik telefonon hívogat naponta háromszor. Ami pedig az SMS-eket illeti, egyszerűen nem kell rá válaszolni. A várható hatás: még a legelszántabb zaklató is meglepően hamar rá fog unni a dologra! És természetesen még a legmeredekebb esetekben se fenyegetőzzünk, pl. feljelentéssel, mivel az több támadóban nemhogy félelmet keltene, hanem azt jelzi, hogy beparáztál tőle, azaz bizonyos szinten kontrollt tud gyakorolni feletted – na az ilyen felállás elkerülendő!

Ezzel szemben ha mondjuk letiltod a kitartó Don Juant, lehet, hogy többszörösen hibát követsz el: egyrészt azt fogja érezni, hogy nyomást tud gyakorolni rád, másrészt úgyis keres majd más csatornán. Ennél már csak az a rosszabb, amikor valaki lecseréli a mobilszámát – mivel ha kellően kitartó a zaklató, akkor úgyis beszerzi az új számod is. Nem megyek bele, de azt felejtsük el nagyon gyorsan, hogy bárkinek a mobilszámát is titokba lehetne tartani a mai világban.

Viszont egyszerűbb esetekben hatékony lehet a hívásszűrés, ami egy demizsonnyi tablettás bornál kicsivel drágább mobilokban már évek óta elérhető vagy a mobiloprendszer részeként vagy letölthető alkalmazással. Sőt, a jobb hívásszűrők, amik természetesen szűrik az üzeneteket is, igencsak pöpec módon skálázhatóak.

Alap funkció a whitelist, azaz amikor a mobil csak olyan hívótól enged be hívást, akinek a száma benne van a telefonkönyvében, értelemszerűen a blacklist esetén minden hívást beenged kivéve azokat a hívókat, akiket a felhasználó letiltott. De éppenséggel beállítható az is, hogy csak a névtelen számról érkező hívásokat utasítsa el az alkalmazás. Ezen kívül vannak még kifinomultabb módszerek, amik spamszűrőkhöz hasonló elven, a háttérben nagy-nagy adatbázisokra támaszkodva próbálják megsaccolni, hogy milyen hívásokat legitimek vagy kéretlenek. Ez utóbbi Magyarországon gyakorlatilag még ismeretlen, az USA-ban viszont, ahol a telefonos direkt marketing egyre nagyobb problémává nőtte ki magát, a reputációs alapuló hívásszűrők mindennapos eszközök.

Mondhatni advanced level, de a hívásszűrő alkalmazást lehet kombinálni a hívásátirányítással. Amikor a hívásszűrő kiszűr egy számot a készüléken – tehát a végponton – általában foglalt jelzést dob vissza a hálózat, így a hívó fél felé. Na már most, ha az ügyfél beállítja, hogy foglaltság esetén a hívása irányítódjon át egy olyan számra, ami nyilvánvalóan nem létezik /*pl. +36701234567*/, akkor a kéretlen hívó azt a szolgáltatóra jellemző üzenetet fogja hallani, hogy a hívott számon előfizető vagy szolgáltatás nem kapcsolható vagy hasonló. Ha nem egy erősen pheaker-mentalitással rendelkező figuráról van szó, azt fogja gondolni, hogy a szám, amit hívott volna, már megszűnt és az életbe nem próbálja meg újra hívni.

Ha valaki nem attól tartva nem akarja megadni a számát, mert attól tartana, hogy kéretlenül hívogatják majd, hanem azért, mert attól tart, hogy a hívószáma alapján különböző szolgáltatásokban majd azonosítható lesz, szintén nem érv.

Amennyiben mégis erről van szó, bárki megteheti, hogy valahol vesz 500 jó magyar forintért egy SIM-et, amit aztán betesz egy régi, használaton kívüli mobiljába, majd annak a számát adja meg olyannak, akit nem ismer, csak a netről. Eléggé tudathasadásos, na meg paranoid megoldás, de hatékony, az tény. Viszont figyelembe kell venni, hogy ha valaki közelebbi kapcsolatba kerül azzal, akit mondjuk egy társkeresőn megismert, idővel úgyis meg kell adnia az általános céllal használt mobilszámát, ami ugye együtt jár azzal, hogy be kell hazudnia a másiknak valami olyat, ami hihető, a másik mégsem nézi betegnek, bizalmatlannak. Például: “jaaa, az a céges számom”. A másik karakterétől függően egy ilyen dolog viszont alaposan aláaknázhatja a bizalmat.

De egy társkeresőzéshez használt mobilszám létrehozásához kis ésszel, még SIM vásárlásra sincs szükség, lévén, hogy a net tele van olyan szolgáltatókkal, amik fillérekért, bizonyos régiókban teljesen ingyen adnak virtuális, mégis teljes értékű telefonszámot, mint amilyen a Google Text. Ilyen szám meg aztán használható minden olyan közegben, ahol valami miatt fontos, hogy ne lehessen valakit túlságosan könnyen azonosítani.

Nos, társkeresőben, például Tinderen aki képtelen megadni valamilyen számát ésszerű idő után, sikeres ember nem lehet. Megjegyzem, semmi sem tiltja azt, hogy a legismertebb üzenetküldős szolgáltatásokba virtuális számmal regisztrálj, amit érdemes is kihasználni, ez persze a többségnek eszébe sem jut. Nekem például a mobilszolgáltatóm által adott számom csak ott van megadva, ahol az valami miatt feltétlenül szükséges, de az összes nagy, ismert üzenetküldőhöz – Viber, Signal, Telegram és a többi – már virtuális számot használok.

Elmélkedve a mobilszámokhoz tartozó szemérmességről, mind elvi, mind technikai oldalról, nekem könnyebb dolgom van, ha megpróbálom belőni azt az arany középutat, aminek eredményeként mindenki számára elérhető vagyok, aki indokoltan keresne, ugyanakkor mégis minimalizálom az esélyét annak, hogy a számommal visszaéljenek bármilyen módon is.

Az átlag felhasználó persze nehezebb helyzetben van, amit viszont szögezzünk le: aki nem képes megadni mondjuk Whatsapp-elérhetőséget – ahol a Whatsapp-azonosító általában a mobilszám – mert attól tart, hogy kitudódik a száma, az előttem kiállította magáról az ostobasági diplomát summa cum laude minősítéssel. Nem csak azért írom, mert nálam mindennapi rutin, hogy egy ismeretlen számhoz tartozó személyt azonosítsak OSINT alapon vagy éppen egy személyt hirtelen fel kellene hívni és elő kell keresnem a mobilszámát. De több olyan szolgáltatás is van, ahol nincs szűkség hívószámra, mint amilyen a Skype vagy éppenséggel a megadása erősen ajánlott, de opcionális, ilyen például a Telegram.

Reklámok

Tombol a nyár, meg a deszpászító, na meg szállnak el az agyak

A 444 ma írta meg, hogy a zsaruk éjszaka állították elő a nemzet aktuális Robin Hoodját, aki jelentette a BKK felé, hogy az online jegyvásárlási rendszer kijátszható – és igen, kitaláltad, bele is írta, hogy ki is játszotta.

Az egység sugarú tartalomfogyasztó annyit lát az egészből, hogy jól túlpörögtek a zsaruk, elvégre nem tűnik indokoltnak, hogy éjszaka vigyék el a tagot a hékek. Az a nagy büdös helyzet, hogy a rendőrségnek a kapcsolódó törvényeknek megfelelően kell eljárniuk, ha felmerül, hogy nem tettek meg mindent, felelősségre vonják őket, ezzel nem is foglalkoznék többet.

Azzal már érdemes lenne foglalkozni, hogy a BKK és a T-Systems kommunikációja milyen tragikusan rossz volt, ez mondjuk nem területem, szintén hagyjuk. Ha nem tesznek feljelentést, nagyon rossz üzenet, ha tesznek feljelentést, mint látjuk, szintén rossz, csak máshogy.

Szóval van a 18 éves BKK-s Robin Hood, aki nagyon komoly eséllyel pályázhatna a P0wnie-díjra a legostobább hibabejelentéssel, akárhogy is nézem és még az sem annyira menti fel, hogy még csak 18 éves. Attól még nem kell hülyének is lenni. Az világos, hogy a hibát tőle függetlenül alighanem több százan megtalálhatták, esetleg ki is használták, csak idő kérdése volt, hogy mikor fogják előhúzni a leghülyébbet, amelyik elviszi a balhénak ezen részét. Ha pedig valami igaz abból, hogy APT-vel tették sérülékennyé a BKK érintett szolgáltatását – viszont vérciki, ha ezt menet közben nem vették észre – abban aztán biztosak lehetünk, hogy arról majd nem hallani, hiszen amit nem értene meg a tartalomfogyasztó, azt minek is leközölni ugye. A bugreporting, azaz, hogy megfelelő módon, a megfelelő arcnak juttass el a talált bugot úgy, hogy az senkinek se fájjon, sokszor külön művészet, a legelemibb megfontolások viszont eléggé világosak. Sokszor idő kellhet annak a kitalálásához, hogy egy talált sebezhetőséget valaki megfelelően jelentsen, ha névvel, ügyeljen rá, hogy az ne úgy nézzen már ki, hogy “van ez a sérülékenység, nini, ki is használtam, de léccike, ne jelentsetek fel”, ami sokszor névvel kivitelezhetetlen, névtelenül viszont sokkal egyszerűbb a dolog.

Erre a témára csak az pörög rá, akinek tényleg fingja nincs az egészről. A BKK-s Robin Hoodnak kellett a sherwoodi erdő, megkapta, még ha nem is lennék túl népszerű ezzel a véleménnyel.

Belefulladhat a tudományos kutatás a big datába?

Egészen szokatlan, a normális piaci versennyel szembemenő és bejósolhatatlan hatásokat kiváltó javaslatot hagytak jóvá a napokban Brüsszelben: az elkövetkező néhány évben a tudományos publikációkat teljesen ingyenesen elérhetővé kellene tenni.

A cikkben felvázolok egy hipotetikus világot, amiben olyan módon lenne teljesen ingyenes a szaklapok elérése, hogy azokért senki sem fizet.

Hogy a teljes ingyenesség miért is hordozhat beláthatatlan veszélyeket és végeredményben miért nem valósítható meg illetve lassítaná a tudományos kutatásokat azzal, hogy látszólag paradox módon az információk elérését nehezítené, végképp nem elképzelhetetlen forgatókönyv. Korábbi tapasztalatokból pedig lehetne tanulni, analógiákat is találunk, amiket érdemes szemügyre venni: íme néhány gondolat a cloud computing, a közösségi web, a túlzott netpenetráció társadalomra gyakorolt hatásáról. Vigyázat, messziről indítok!

Globálisan tekintve a cloud ökoszisztémája nem tesz különbséget 1 TB mennyiségű hűtőmágnes bölcsességet tartalmazó kép és 1 TB igényes, egyedi tartalom közt. Az erőforrások viszont közösek. Az egyre növekvő mennyiségű, főleg a social weben keresztül gyarapított felhasználói információ minden téren egyre nagyobb IT erőforrásigényt jelent, legyen szó akár sávszélesség használatról, akár tárolókapacitásról, akár egy-egy szerverfürt számításigényéről, ennek megfelelően ezeknek a fenntartására is többet kell költeni. Ahogy írtam, a cloud computing jellegéből adódik, hogy nem tesz különbséget tartalom és tartalom közt, azok közösen osztoznak az erőforrásokon. Azaz teoretikailag például egy-egy tudományos cikk elérése annál drágább lesz, minél több, mások számára érdektelen ostobaságot hány fel valaki a közösségi webre, hiszen még ha ezek nincsenek is egy adatközpontban vagy felhőben, a kereséskor is az adatközpontok közti információcserét biztosítani kell, ami eszelős adatátvitellel jár. Hogy egy kevésbé elméleti példát említsek, a Facebooknak annál többet kellett költenie – és persze leverni a felhasználókon – minél többen beregisztráltak a Harvard diákjai után, hogy majd feltöltsék kedvenc cicás-kutyás-paolocoelhós képeiket. Ha nem vezettek volna be radikális újításokat a felhalmozódó adattömeg miatt, ami leválogatja, hogy mi jelenjen meg előttünk és mi nem, a Facebook ma egy használhatatlan rendszer lenne.

A helyzeten tovább bonyolít még valami. Tény, hogy csak az az információ létezik, ami ésszerű idő- és energiabefektetéssel kereshető. Viszont ahogyan a weben tárolt információ mennyisége akkorára duzzadt, hogy azt ma már ésszel be sem lehet látni, új feladatok elé állítja az adattudósokat, különben egyszerűen nem lenne anyagilag fenntartható például egy keresőrendszer a jelenlegi formájában, hiszen a felhasználó elvárja, hogy ésszerű idő alatt meg is találja, amit keres, az információk ne vesszenek el és így tovább. Hiba lenne azt gondolni, hogy a webes óriások ezt a feladatot biztosan csont nélkül meg tudják oldani. 2007-től 2011-ig el nem tudtuk volna képzelni,  hogy például a Youtube-on reklámokat kell megnéznünk ahhoz, hogy megnézzük a tényleges tartalmat, máskülönben egyszerűen az egész nem lenne fenntartható. Az ugyan nagyon meredeknek tűnik, hogy a Google/Yahoo/Yandex keresés valaha fizetősség váljon, viszont az eddig leírtakkal egybevetve, ahogy ezeknek a keresőknek az üzemeltetése is egyre több IT erőforrást emészt fel az egyre növekvő információtömeg miatt, egyre költségesebb is lesz, amit valahogyan be kell hozniuk az üzemeltető cégeknek.

Adja magát a probléma, hogy idővel egyre kifinomultabb és hatékonyabb keresési technológiák bevezetése válik majd szükségessé. Elég csak arra gondolnunk, hogy bizonyos területeken az általános célú keresőmotorok – amik ugye főként abból tanulnak, hogy egy-egy keresés után a felhasználó melyik találatra kattintott – halomra dobják az irreleváns találatokat az első néhány oldalon bizonyos témák esetén. Közismert, hogy különböző egészségmegőrzéssel és betegségekkel kapcsolatos témák esetén a vezető keresőmotorok mennyire rosszul teljesítenek a kiadott információ minősége szempontjából még akkor is, ha a helyzet azért látványosan javult az elmúlt 2-3 évben a Google esetén. Elég csak az orvos által felírt NSAID fájdalomcsillapító Cataflamra rákeresni, a vezető találatok közt vagy olyan fórumok fognak megjelenni, amikben a teljesen laikus fórumozók arról írnak, hogy majdnem meghaltak tőle, ezen kívül a vezető találatok közt lesz, hogy honnan lehet megrendelni a feketepiacról, majd ezeket a találatokat követi az illető hatóanyag Wikipedia-szócikke illetve farmakológiai adatbázisokra mutató találatok. Amik persze annyira százarak, hogy a laikusnak esélye sincs megérteni valami hasznosat is belőle, pláne helyes következtetést levonni az elé kerülő információból. Most csak egy egyszerű fájdalomcsillapítót hoztam példaként, de a jelenség markánsabban jelentkezik, ha a szorongáscsökkentő Xanaxra vagy éppen a teljesítményfokozásra is alkalmas Ritalinra keres rá valaki, arról nem is beszélve, hogy – ahogy arról korábban cikkeztem – a gondolkodásmódunkat és a véleményünket észrevétlenül befolyásolja az, amit a kereső elénk dob, így a példánál maradva a gyógyszerellenesség, oltásellenesség is érthetőbbé válik.

Ahogy írtam, a relevancia meghatározásánál a háttérben a keresőmotorok machine learning algoritmusai azt veszik különös súllyal figyelembe, hogy egy-egy keresés után a felhasználók melyik találtra kattintottak, hiszen ebből arra következtet a rendszer, hogy annak a találatnak az értéke, relevanciája nagyobb a többihez képest. Nem nehéz rájönni, hogy a bökkenőt az emberi természetnek az a sajátossága okozza, hogy a kevés energiabefektetéssel, könnyen megérthető, befogadható információt fogják preferálják az emberek tömegesen – a gyógyszeres példa esetén akkor is, ha az eléjük kerülő információ veszélyes hülyeség.

Tévedés lenne azt gondolni, hogy más területen más a helyzet: a kutató is ember. Nemrég lehetett olvasni róla, hogy azoknak a cikkeknek a citációja szignifikánsan magasabb, amik minél kevesebb matematikai képletet és az adott tudományban ritkán használt absztrakciós készséget igénylő leírást tartalmaznak! Azaz még a kutatók is inkább azt használják forrásként a kutatás folyamán, ami számukra gyorsabban megérthető, természetesen itt is igaz, hogy éppen ezért egyáltalán nem biztos, hogy a legjobbat.

Kérdéses, hogy a Google Scholar hogyan varázsol közvetetten tőkét, de sejthetően van kapcsolat a Scholarban és a sima Search-ben indított keresések közt, esetleg a tudományos kereső az általános célú kereső találatait pontosíthatja, segíthet kiszűrni a zajt. Viszont a Scholar használatakor is megfigyelhető az, ami az általános célú kereséskor, azaz a kutató akaratlanul is, de azokra a cikkekre nagyobb hajlandósággal, ilyen módon nagyobb valószínűséggel kattint, amik számára érdekesebbnek vagy könnyebben emészthetőnek tűnnek. Valószínűsíthető, hogy a Scholarban megjelenő találatok rangsorolásakor a Google motorja kőkemény tudománymetriai adatokat használ fel, azaz például a citáción, impakt faktoron túl azt, hogy a cikk szerzői mennyi cikkben voltak társszerzők más, magasan vagy éppenséggel kevéssé értékes cikkek szerzőivel.

Mielőtt rátérnék arra, hogy kell-e tartani valamiféle armageddontól az összes, most tudományos lapkiadás „ingyenesítésével”, együnk egy történeti kitekintést. A nyílt forráskód és a szabad szoftver gyakran együttjáró, de teljesen más fogalom, egyszerűen csak szabad szoftverként fogom hivatkozni az ingyenesen elérhető, többnyire nyílt forráskódú szoftvereket. A nyílt forráskód hívői idestova legalább 30-20 éve mondják, hogy a szellemi crowdfounding idővel el fogja söpörni vagy legalábbis háttérbe fogja szorítani a kereskedelmi forgalomba kapható szoftverrendszereket és átszabja a teljes szoftverpiacot egyszerűen azért, mert mindenki számára elérhető és persze fejleszthető lesz. Nem így történt, nem így történik. Ehhez képest azt látjuk, hogy a szabad szoftver szépen megvan a kereskedelmi forgalomban kapható, zárt forráskódú mellett, de hozzáértő egyszerűen nem jelenthet ki felelősségteljesen még olyat sem, hogy az egyik vagy a másik szoftver lenne jobb, ezzel kapcsolatban legfeljebb bizonyos specifikus feladatok szempontjából lehetne mondani bármit is. Ahogyan a világ elképzelhetetlen lenne Apache webszerver nélkül, ugyanúgy Microsoft Office nélkül is, hiába mondják, a mai napig nem sikerült megteremteni a kompatibilitást az MS Office és a szabad szoftveres Office-klónok közt, így nyilván bonyolultabb szoftverrendszerek esetében még annyira sem lehetne felváltani a kereskedelmi verziót a szabad szoftveresre.

Amit a szabad szoftver közösség példájából megtanulhatunk, hogy ez a típusú szabadság számos értékes szoftver mellett elképesztő mennyiségű szemetet is kitermel, amiknek egy részét ráadásul használják is, aminek persze ugyancsak megvan az ára, ha egy ingyenesen telepíthető óriási szoftverrendszerhez kell szakértőt hívni idővel. Normális ember persze nem állítaná, hogy a szabad szoftver egy kudarc volt, az viszont teljesen világos, hogy messze nem érte el a sok-sok éve kitűzött célját.

Időszerű rátérni, hogy milyen kockázatokat rejt magában ha a kétségtelenül pofátlanul nagy haszonkulccsal dolgozó és szerte a világon a kutatásban esélyegyenlőtlenséget szülő tudományos lapkiadót, mint szereplőt, illetve a jelenlegi formájában működő peer-review rendszert képzeletben egy az egyben kiiktatjuk a tudományos publikálás rendszeréből, az összes cikk ingyen elérhetővé válna?

A SciHub, mint a kutatók legnagyobb torrentoldala azzal, hogy 50 millió, nagyrészt eredetileg fizetős cikket ingyenesen elérhetővé tesz, egy speciális eset, hiszen a jelenlegi rendszerben született cikkek válnak elérhetővé rajta keresztül.

Viszont az, ha teljesen ingyenesen lennének elérhetőek a tudományos cikkek, azaz  a kiadásnak nem lenne költsége, a újságok és adatbázisok elérése ingyenessé válna, szükségszerűen rántaná magával azt a hatást, hogy sokkal többen írhatnának gyakorlatilag bármit kontroll nélkül – ne legyenek illúzióink, írnának is, ahogy tömegesen készülnek csapnivaló nyílt forrású és ingyenes szoftverek is csak sokkal lassabban hullanak ki, mint a kereskedelmi forgalomban kaphatók.

Képzeljünk el egy olyan világot, ahol szakmai kompetenciájukban erősen eltérő kutatók tényleg azt írnak, amit akarnak vagy legalábbis sokkal kevesebb kontroll mellett. Az akadémiai életben jól ismert publikációs nyomás már önmagában is azt eredményezné, hogy a mostanitól jóval nagyobb mennyiségben jelennének meg egymással átfedő, megtévesztő vagy egyszerűen silány minőségű szakcikkek, ennek eredményeként teljesen más tudománymetriai módszertant kellene bevezetni, hogy megkülönböztethető legyen az értékes a selejttől, ami viszont jóval több ideig tart, mint néhány év, nem menne csak úgy, olyan gyorsan az öntisztulás, mint a rossz minőségűre sikerült szabad szoftverek esetén. Addig viszont könnyen lehet, hogy a világot elöntené a publikációs szenny. Egy ismerősöm említette, hogy az internetpenetráció kiterjedésének azért voltak olyan pozitív hozadékai is, mint a Wikipedia vagy annak klónai. Igen ám, viszont a Wikipediára és a Wikipedia alapértékei alapján dolgozó tudományos wiki-oldalakra egyrészt nem hat semmiféle publikációs nyomás, másrészt már meglévő, kellően validált forrásokból dolgoznak.

És akkor visszaköszön ismét a jó öreg keresés. A tudományos publikációk közti keresés már így sem egyszerű, ha viszont elöntené a veszélyes hulladék, azaz az egészet és kezelhetetlenül megszaporodnának az értéktelenen művek, túlzás nélkül írom, hogy egy technológiai szingularitással néznénk szembe, hiszen korábban sosem látott helyzetbe hozná az egész tudományos világot.

Gyakran elhangzik érvként, hogy „ami nem érdekel, nem olvasom el”. Igen ám, viszont néhány nagyon fontos dolgot illene ezzel kapcsolatban figyelembe venni. Az egyik, hogy ahhoz, hogy egy keresés eredményei alapján megállapítsuk, hogy mi nem érdekel minket, ahhoz legalább az absztraktot át kell futni, azaz energia- és időbefektetést jelent emberi oldalról. Másrészt mivel jóval nagyobb mennyiségű adatban kellene keresnie a keresőnek, ezért az a gépek számára is többlet energia- és időbefektetésbe kerülne, ami nyilván a megnövekedett IT-erőforráshasználatban, ilyen módon megnövekedett fenntartási költséggel járna abban az esetben, ha a keresőket szeretnénk továbbra is elfogadható hatékonysággal használni! Végezzük gondolatkísérletet! Az Országos Széchenyi Könyvtár körülbelül nyolcmillió tétellel rendelkezik. Képzeljük el, hogy mindenki irkálhat bármilyen kontár könyveket és beteheti az OSZK-ba, így rövid idő alatt a könyvtárnak mondjuk 80 millió tételt, nagyrészt könyvet kellene tárolnia. Jól hangzik nem? Csak éppen plusz kilenc hasonló méretű épületet kellene építeni a könyvek elhelyezéséhez, arról nem is beszélve, hogy még az elképzelhető legkorszerűbb könyvtári katalógusban is a releváns infó megtalálása sokkal több ideig tartana, hiszen a korábbi mondjuk 3% keresési feltételnek megfelel, de irreleváns információforrás helyett például 90% totálisan irreleváns információforrást kellene figyelmen kívül hagynunk, amikor arról döntünk, hogy milyen köteteket kérünk fel a raktárból és persze annak is megnőne a sansza, hogy végül nem is olyan könyveket kapnánk kézhez, amik valóban használhatóak. Igaz, éppen amiatt, hogy bárki bármilyen könyvet betehet, néhány százalékkal nőne a hasznos információk össz-mennyisége az egész eredményeként az információáramlás, ilyen módon maga a kutatás is lassulna!
A gépek kapacitása persze kevésbé korlátozott, viszont egy-egy állam, egyetem, kutatóintézet, kutató pénze és ideje már sokkal inkább.

A 90-es évek derekán többen szentül hittek benne, hogy sokak számára kiugrási lehetőséget jelent, csökkenti a társadalmi esélyegyenlőtlenséget és egyéb civilizációs léptékű jótékony hatással jár, ha az internet mindenhova – már bocsánat, de még a csirkeólba is – eljut. Egyenlőre úgy néz ki, hogy hatalmas tévedés volt, legalábbis ezek az ideák annyira kis mértékben valósultak meg, hogy az nem is mérhető, ugyanakkor a neten szinte bármerre nézünk, mindenhonnan ömlik a szenny, de még a legprofibb, legtudatosabb felhasználóknak is tengernyi irreleváns információt kell kerülgetniük nap, mint nap. Lehet, hogy először életszerűtlennek tűnik párhuzamot vonni aközött a tanyasi, sokszor elképesztően kultúrálatlan, ámde okosmobilt bökdöső fiatalok és a kutatók és „meg nem értett őrült zsenik” közt, azért van egy „apró” közös vonásuk: ugyanúgy emberek. Nincs tökéletes analógia, de azért – egy olyan képzeletbeli világban, ahol nincs forintosítható értéke a tudományos információforrásoknak, együtt jár azzal, hogy bárki kiadhat bármit, egy ilyen világban a tudományos diskurzusok teljesen átformálódnak. Átformálódnak hasonlóan ahhoz, hogy míg a net hajnalán a kommentek például kimondottan hozzáadtak egy-egy neten megjelent cikk értékéhez, lehetett tanulni belőlük, ma már a legtöbb helyen teljesen értelmetlen kommenteket olvasni, azt, hogy a jelenség mennyire eszkalálódott, jól mutatja, hogy olyan oldalak, mint a Popular Science vagy a Reuters egyszerűen letiltották a kommentelést. Megint más helyeken vagy szigorúan korlátozták, például előmoderációhoz kötötték azt.

Míg a szabad szoftvert nem csak, hogy túléltük, de konkrétan nagyon sokat köszönhet neki a világ, a tudományos publikációk teljesen ingyenessé tétele beláthatatlan következményekkel járna, még ha a tudományos világ nem is pusztulna bele, a fenntarthatóság miatt olyan változásoknak kellene végbemenniük amik előre bejósolhatatlanok. Persze lehet rajta fantáziálni, hogy esetleg a szakcikkek eléréséhez is valahogy hirdetési modellt illesztenek, ami biztos, hogy hiteles és gyorsan elérhető információra szükség van, ingyen ebéd pedig nincs.

Nagyon fontos megjegyezni, hogy a felvázolt jövőkép az elképzelhető legrosszabb forgatókönyvet mutatja be, egy szélsőséges hipotetikus esetet, holott a brüsszeli döntésben ilyenről azért szó sincs, ahogyan arról sincs szó, hogy az eredetileg minőséget garantálni hivatott peer-review-rendszerbe belenyúlnának, ami viszont egy ilyen folyamat szükségszerű velejárója lenne. Hiszen a kiadók továbbra sem fognak ingyen dolgozni, a megjelent lapokat és adatbázis-előfizetéseket továbbra is valakinek fizetnie kell. Viszont ha nem konkrétan a végfelhasználóként jelenlévő egyetem fizeti meg ezeket a költségeket, már annak is jelentős piactorzító hatása lehet, az elképzelt hatások mind érvényesülhetnek, csak éppenséggel kicsiben. Kicsiben, de közel sem biztos, hogy kontrollálható módon.

Kozma Réka pécsi ügyvéd még mindig akciózik

Hatósági eljárásokkal kapcsolatos információkat közölni ugyebár bőven törvénysértő lehet, de jelen esetben rólam van szó, azaz úgy írok róla, mint magánügyről.

Ha valakinek nincs meg: Kozma Réka az a büntetőjogász, aki a Pécsi Tudományegyetem jogi karán szerezte a diplomáját, már komolyan nem is tudom, hogy mikor, de feljelentettek rágalmazásért, amikor az nem jött be, – mondjuk tényleg nem is rágalmaztam senkit – akkor feljelentett még egyszer zsarolásért, amit szintén instant elvérzett, mivel hogy gyorsan túlessünk a dolgon, én, mint nemhivatalos vádlott-jelölt bizonyítottam, hogy nem zsaroltam meg. Mármint nem én őt. Legújabban Kozma Réka a zsarolási feljelentéshez használt keresetlevelet újrahasznosítva feljelentést tett ellenem becsületsértés miatt. A harmadik feljelentés egyébként kicsit büdösnek érződhet, mert a Pécsi Járásbíróság átpasszolta a Pécsi Törvényszéknek, amelyik másodfokon megnézte és úgy döntöttek, hogy átpasszolják a Szigetvári Járásbíróságnak. A Szigetvári Járásbíróság szintén nem vállalta be az eljárás lefolytatását, ezért visszapasszolta a Pécsi Törvényszéknek, amelyik ha jól értem, visszaküldte a Pécsi Járásbíróságnak, amelyik megküldte a Komlói Járásbíróság felé, így az eljárást a Komlói Járásbíróság indította meg Kozma Réka magánvádja alapján. Ha nem tudtad követni, nem baj, mert én sem nagyon.

Minő manír, hogy a bíróság ugyanazokat a doksikat kapta meg a bizonyításhoz, amit anno a szigetvári rendőrségen ismertettem, ahol megállapították, hogy nem történt bűncselekmény, meg semmilyen törvénysértés. Legalábbis én nem követtem el ellene.

Ha esetleg többet szeretnél tudni Kozma Rékáról, egyszerűen keress rá a nevére a neten.

Ja, ha Nyuszimuszi esetleg majd negyedszer is nekifutna a pernek Tökfejjel vagy nélküle, előtte érdemes átolvasni ezt a posztot, ha pedig postán küldtök valami szart már megint jó távol, a bejelentett lakcímemre, a borítékra legalább írjátok rá jeligeként, hogy „jehova”, köszi!

Ja, jut is eszembe, nem kell bombázni a blogszolgáltatót ügyvédi fenyegetésekkel, ha esetleg eltűnne a poszt, elérhető még a Tumblr-ben, a Blogspot-on, na meg a WordPressen is.

Jehova, Jehova, Jehovaaa! xDDD

Right to be idiot

right-to-be-forgottenA Google EU területén lévő szerverei esetén a keresési találatoknak hány százaléka az, amit gyermekvédelem miatt távolítottak el /*ami még indokolt is, hacsak nem bizonyítékot semmisít meg, amiről múltkor írtam*/? Segítek: 0, nulla, azaz N-U-L-L-A százalék! Origo-cikk erre: http://www.origo.hu/techbazis/20150715-nehezen-felejt-a-google-adattorles-europai-unio-statisztika-szemelyes-adatok.html Az európai jog ismét nagyot ment…

kép: techlicious.com