Tag Archives: sähköinen säilyttäminen

Being trustworthy and FAIR requires people, processes, technologies and collaboration

The Implementation Roadmap for the European Science Cloud (EOSC) puts focus on research data adhering to the FAIR principles of being findable, accessible, interoperable, and reusable. These are all excellent goals and the social science data archive community has been promoting similar ideas since at least the 1970’s. We know that managing, disseminating and preserving digital data for the long term is neither simple nor straightforward. Research data will not become nor stay FAIR by magic. We need skilled people, transparent processes, interoperable technologies and collaboration to build, operate and maintain research data infrastructures.

A key theme in digital preservation and thus in all FSD’s functions is trust. Data subjects need to be able to trust that data about them are handled in an appropriate way. Researchers need to have trust that FSD manages their data according to the agreements. FSD’s users need to be able to trust that they get access to reliable versions of data from FSD and that, for example, all changes made to the deposited datasets are documented. In short, FSD needs to be a trusted digital repository.

Shaping the trust landscape

Luckily, FSD is not alone. In addition to collaborating in national networks, FSD is the Finnish Service Provider for CESSDA ERIC (Consortium of European Social Science Data Archives). CESSDA requires that all its Service Providers adhere to the trustworthy digital repository requirements set by the CoreTrustSeal. In August 2017, FSD acquired the new CTS certification among the first CESSDA Service Providers.

FSD has been active in CESSDA’s trust work for several years and currently I am a member of the CESSDA Trust Working Group. The Group offers guidance and support to CESSDA members in understanding and acquiring the CoreTrustSeal and maintains an overview of the trust landscape including certification standards and the emergence of the FAIR data principles and the requirements of the EOSC. I am also a member of the CoreTrustSeal Board 2018–2021. These collaborations are essential for strengthening FSD’s expertise. They also provide unique insights to, and possibilities to be involved in, shaping the trust landscape.

Today is the World Digital Preservation Day. It brings together the digital preservation community to celebrate the collections preserved, the access maintained and the understanding fostered by preserving digital materials. I want to take this opportunity to celebrate FSD’s current and forthcoming collaborations and especially our staff’s great expertise and dedication. As the Chair of the CESSDA Trust Group Herve L’Hours has written: Technologies can be consolidated, and processes automated, but collection, creation, curation and research use/reuse of data is ultimately dependent on the domain and disciplinary expertise of the humans who know them best. (L’Hours 2018)

Happy Digital Preservation!

FSD’s work in CESSDA Trust Group and CoreTrustSeal are supported by CESSDA Trust Work Plan project and the Active FSD for CESSDA project funded by the Academy of Finland.

More information:

» Follow #WDPD2018 on Twitter
» CESSDA Trust Working Group
» CoreTrustSeal Board 2018-2021

Mari Kleemola
Development Manager
firstname.surname [at] uta.fi

Tulevaisuuden vaihtoehdot suurten datamäärien käsittelyyn: DRAS-TIC ja Brown Dog

Suuret datamassat ja niiden tarjoamat mahdollisuudet ja haasteet liitetään yleensä suurten internetjättien, kuten Googlen tai Amazonin, keräämään dataan. Mutta mielenkiintoisia laajoja datoja löytyy myös useiden arkistojen hallusta. Niiden käsittely on kuitenkin hankalaa ja riskinä on, että mahdollisuudet jäävät hyödyntämättä ja käteen jäävät vain haasteet.

Tietomassat ja formaattivelka haasteina

Ensimmäisenä haasteena vastaan tulee todennäköisesti varantojen skaalautuminen. Eli miten infra pysyy perässä, kun tiedostomäärät kasvavat dramaattisesti. Toinen haaste on formaattivelka. Formaattivelalla tarkoitetaan sitä työmäärää tai rahasummaa, joka tulevaisuudessa joudutaan käyttämään tiedostojen jatkokäyttämiseen, kun niiden lukeminen ja prosessointi on muuttunut vaikeaksi tai mahdottomaksi teknologian vanhenemisen myötä. Jos aineistoja hallinoivat tahot eivät aktiivisesti ota huomioon pitkäaikaissäilytystä, ne kerryttävät itselleen hyvin todennäköisesti formaattivelkaa.

Osallistuin helmikuussa Barcelonassa IDCC18-konferenssiin, joka on digitaalisten aineistojen kuratointiin erikoistunut vuosittainen tapahtuma. Konferenssissa Marylandin yliopiston Digital Curation Innovation Centerin johtaja Richard Marciano esitteli näihin ongelmiin vastaavaa kahta eri teknologiapakettia: DRAS-TIC:ia (Digital Repository at Scale that Invites Computation) ja Brown Dogia.

Skaalautuvat tietovarannot

DRAS-TIC on avoimen lähdekoodin horisontaalisesti skaalautuva varanto, jonka ei pitäisi kärsiä lainkaan tiedostomäärän kasvusta – jos kehittäjien mainospuheita on uskominen. Luonnollisesti palvelun ylläpitäjän täytyy pystyä kasvattamaan taustalla pyörivien palvelinten määrää. Akronyymihirviön mielenkiintoisin osa on ”that Invites Computation”, eli DRAS-TIC varannot on viritetty valmiiksi laskennallista arkistointia (computational archival science) varten, mikä tekee datasta löydettävämpää ja mahdollistaa uuden tiedon johtamisen helpommin jo olemassa olevista aineistoista.

Formaattimuutoksiin uusia työkaluja

Brown Dog on avoimen lähdekoodin työkalukokoelma, jolla prosessoidaan tiedostoja. Sen ydintoiminnot ovat tiedostojen muuntaminen formaatista toiseen ja metadatan kerääminen ja sijoittaminen hakuindeksiin. Formaattimuunnokset toteutetaan erilaisilla muuntimilla, joita tällä hetkellä on Brown Dogin työkalukatalogiin listattuna yhteensä 30.

Brown Dog -esittelyvideo

Ideana on ketjuttaa formaattimuunnoksia erilaisiksi poluiksi. Marcianon käyttämässä esimerkissä käyttäjä lähettää järjestelmään PSD 2.0 tiedoston, joka on tarkoitus muuntaa nykylaitteille sopivampaan muotoon. PSD 2.0 on vuoden 1991 PhotoShop 2.0:n työtiedostoformaatti, joten sen käsittely nykylaitteilla olisi todennäköisesti vähintäänkin hankalaa. Muuntamisen Brown Dog aloittaa käyttämällä Windows 3.0 virtuaalikonetta, johon on asennettu PhotoShop 2.0. PSD muunnetaan ensin TIFF:iksi, joka syötetään Docker-kontissa pyörivälle Linux-koneelle, ja se muuttaa kuvan ImageMagik-muuntimella JPEG 2000 -formaattiin. Esimerkissä polku on lineaarinen, mutta mikään ei estä haaroittamasta polkua ja tekemästä useita rinnakkaisia muunnoksia.

Metadatan kerääminen tiedostoista

Näillä kahdella työkalulla tiedostoista voidaan myös haravoida erilaista metadataa ja näin kartoittaa syntyvää tiedostovarantoa. Esimerkkinä voidaan käyttää tavallisen PDF-tiedoston tallettamista DRAS-TIC:ia ja Brown Dogia hyödyntävään varantoon.

Tallennus tapahtuu vaiheittain:

  1. PDF-tiedosto lähetetään tiedostovarantoon, jolloin siitä kerätään talteen tiedoston nimi, koko ja sijainti tiedostovarannossa.
  2. Tiedostosta otetaan irti sen PDF-versionumero.
  3. Tiedostosta otetaan erilleen tekstisisältö.
  4. PDF-tiedoston sisältämät kuvat skannataan tekstisisällön varalta OCR-ohjelmalla (Optical Character Recognition). Lisäksi muilla kuva-analyysityökaluilla kerätään esimerkiksi tiedot siitä, kuinka monta ihmistä kuvissa esiintyy ja minkälaisissa ympäristöissä he ovat.

Näin yhdestä PDF-tiedostosta on kerätty kohtuullisen suuri määrä metadataa, ja kun kaikki tämä metadata indeksoidaan hakuindeksiin, on tiedosto ja sen eri osat helposti löydettävissä usealla eri tavalla.

Brown Dogissa on panostettu siihen, että se on tarvittaessa laajennettavissa omilla työkaluilla, jotka voidaan sovittaa johonkin tiettyyn tehtävään. Jos esimerkiksi tiedostojen tekstisisällöt halutaan avainsanoittaa ja visualisoida varantoa niiden perusteella, voidaan nämä työvaiheet lisätä Brown Dogiin omilla työkaluilla. Näin eri tahot voivat kehittää omiin tarkoituksiinsa sopivan työvuon.

Brown Dog ja DRAS-TIC ovat vielä kehitysvaiheessa, joten aika näyttää, mitä niille lopulta käy. Onnistuessaan ne loisivat mielenkiintoisen pohjan suurten datavarantojen hallintaan ja laskennallisen arkistoinnin soveltamiseen.

Lisätietoa:

» Marciano et al., esitysdiat IDCC2018-konferenssista: Building Open‐Source Digital Curation Services & Repositories at Scale
» CNI Fall 2016 Project Briefings: DRASTIC Measures: Digital Repository at Scale that Invites Computation (To Improve Collections)
» NSCA Brown Dog
» 13th International Digital Curation Conference (IDCC)

Valtteri Kostiainen
sovelluskehittäjä
etunimi.sukunimi [at] uta.fi

Let There Be Digital Preservation – A View from the Data Archive

For the most part, November 6 this year was just an ordinary day. What was different about it was a tiny SIP1, neatly wrapped in a METS2-container that digitally travelled from the Finnish Social Science Data Archive to the National Long Term Digital Preservation Service.

Confused? No worries. So were we a number of times before we got this far. Taking our digital preservation to the level described above required planning and hard work from both research data curators and programmers. In addition to simply preserving bits in a reliable way, we aim to make sure that the digital objects are also understandable by humans and machines in the future. This requires collecting metadata, harmonising file formats, managing versions, and preparing for the change.

I have often said that preserving digital research data is like preserving a moving train. You cannot stop it. If you do, you are not preserving a moving train anymore, only a snapshot. There is a lot to preserve and it may hit you hard, and a lot quicker than you think. The train also has different cars – one can add more, or take some away. Like file formats, cars are different too – from passenger cars to freight cars. There are containers, with hundreds of objects. You need to know what is in each one, and who should have access to those. Some cars contain goods, some people. While goods may last for a long time, people need to be refreshed regularly or they will not survive the journey.

The long road to preservation is paved with obstacles and opportunities

The train analogy should show that digital preservation is an active duty. You cannot put a lid on it and wait until someone asks what is in the box. Because by then, you do not know anymore. Everyone in the preservation business recognises this. At the Data Archive, we preserve research data for long-term access. That means that we actively keep on adding new information too. We make the metadata better, we may find errors in the data and fix them, or at very least we add information on where the data has been used. Moving train, remember!

Since 2008, we have been involved in building a national digital preservation solution for cultural heritage materials and research data. For our purposes, a secure, highly reliable document store is a crucial element for building a sustainable and scalable long-term preservation solution. It will add an additional preservation layer for the data we keep for our users. In a country about the size of Finland, it is feasible to provide a preservation platform nationally to a number of organisations.

We started piloting the service in 2015 and in November we finally transferred out first packages to the preservation service. It has been a long road. We have yet to pop the sparkling wine since there are a number of short-term goals to address. Piloting a service means that there have been moments when the envisioned services are not yet fully operational, specifications need tweaking before one can proceed, or something has simply appeared out of the blue.

Tools are needed to handle the data deluge

The greatest benefit of the exercise thus far has been the internal harmonisation of file formats and data processing workflows. The Data Archive has been around since 1999. While that is a relatively short time, it is a lifetime for many file formats or their versions. We have combed through the most – about 50 000 files – and defined what will be preserved and what are the acceptable file formats. While this is good, it is crystal clear that a constant technology watch is needed in the future. It is also apparent that very soon the magnitude of this will get out of hand. We cannot manually keep an eye on all files, versions and processes.

Therefore, we have built a specific data processing pipeline. It is a collection of tools that fulfil the requirements of the National Long Term Digital Preservation Service specification. It has individual parts that are responsible of standardising the character sets of all files to UTF-8, combining technical metadata with study level metadata, and creating a METS document as well as creating a submission information packet (SIP), and sending it to the preservation service provider.

Commit to constantly challenge the current practices

It is often the case that the ideal format for digital preservation may not be ideal for scientific use. This is no new dilemma. We need to carefully assess not only the formats and their feasibility for digital preservation, but also the costs of maintaining the system of archive formats and actively used formats. Any organisation that joins the national digital preservation service must have an interest in challenging the current best practises and bringing their specific user perspective into the discussion. Because in the end, everything is kept for future use, not for storage only.

The other corner stone is commitment. Once you start with digital preservation, you cannot easily stop. It means the knowhow and resources need to be there in the future too. We believe that a national solution will be beneficial for us. We are able to transfer some of our knowhow requirements to the digital preservation specialists, and focus on serving researchers better. However, we do need to keep monitoring the specialists’ performance like our own. Any outsourced activity in the digital preservation chain cannot be the weakest link. Therefore, further standardisation and auditing are crucial steps in the future.

Notes:
1 Submission Information Package (Information sent from the producer to the preservation service)
2 The Metadata Encoding and Transmission Standard (METS) (Container format and metadata standard for encoding descriptive, administrative, and structural metadata regarding objects)

Why today?
» This year, the first ever International Digital Preservation Day on 30th November 2017 will draw together individuals and institutions from across the world to celebrate the collections preserved, the access maintained and the understanding fostered by preserving digital materials. The aim of the day is to create greater awareness of digital preservation that will translate into a wider understanding which permeates all aspects of society – business, policy making, personal good practice.

Further reading:
» The National Digital Library – Digital Preservation
» Digital Preservation Solution for Research Data (PAS)

Tuomas J. Alaterä
IT Services Specialist
firstname.surname [at] uta.fi

Tietoarkisto haluaa olla jatkossakin DSA-sertifikaatin arvoinen

Tietoarkistolle on tärkeää avata tutkimusaineistot vastuullisesti ja luotettavasti, ja luonnollisesti haluamme kertoa luotettavuudestamme myös muille. Yksi hyvä luotettavuuden mittari on kansainvälinen Data Seal of Approval (DSA) -sertifikaatti. Sen saaminen edellyttää, että organisaatio säilyttää sähköisiä aineistoja luotettavasti ja mahdollistaa aineistojen jatkokäytön. Tällä hetkellä Tietoarkistolla on voimassa vuosille 2014–2017 myönnetty DSA-sertifikaatti. Koska nykyisen sertifikaatin voimassaolo päättyy vuoden vaihteessa, sen päivittäminen on juuri nyt ajankohtaista. Seuraavaksi kerron yleisesti DSA-sertifikaatista ja sen hakemisesta.

Mikä ihmeen DSA-sertifikaatti?

Kansainvälisen sertifikaatin takana ovat ICSU World Data System (WDS) ja Data Seal Of Approval, jotka yhdessä myöntävät Data Seal of Approval (DSA) -sertifikaatteja. Sertifiointi on suunnattu sähköisten aineistojen säilyttäjille, ja sen avulla pyritään osoittamaan kuinka luotettava tietoja säilyttävä organisaatio on. Luotettavuutta arvioidaan sähköisten aineistojen säilyttämisen kaikissa vaiheissa aina aineistojen vastaanottamisesta niiden pitkäaikaissäilyttämiseen sekä edelleen jakamiseen.

Sertifikaatin vaatimukset perustuvat viiteen kriteeriin. Kriteerien mukaan säilytettävien aineistojen tulee olla löydettävissä verkosta, niiden tulee olla saatavilla selkein käyttöehdoin, aineistojen tulee olla tallennettuina jatkokäytön mahdollistavissa tiedostoformaateissa, aineistojen tulee olla luotettavia ja aineistojen tulee olla yksilöitävissä niin, että niihin voidaan viitata yksiselitteisesti ja pysyvästi. DSA-sertifikaatti on myönnetty vuosiksi 2014–2017 Tietoarkiston lisäksi liki 60 toimijalle ympäri maailmaa.

Sertifikaatin hakeminen

Jotta Tietoarkistolle myönnetty sertifikaatti pysyisi voimassa ilman katkoja, työ sertifikaatin uusimiseksi on aloitettu hyvissä ajoin.

Uuden sertifikaatin hakeminen edellyttää, että hakija täyttää edelleen vaaditut organisatoriset lähtökohdat. Lisäksi hakijan on raportoitava tarkasti organisaation nykyisen toiminnan tilanne. Raportointi perustuu 16 kohdan ohjeistukseen, jonka mukaisesti aineistojen luotettava säilyttäminen on todennettava niin käytäntöjen, tekniikan kuin etiikankin näkökulmasta. Sertifikaatin hakijan täytyy voida osoittaa, että sen toiminnan taso vastaa sertifikaatin vaatimaa tasoa.

Kokosin yhdessä kollegoideni kanssa Tietoarkiston toimintaperiaatteista ja -käytänteistä ohjeistuksen mukaisen raportin, jota varten haastattelin arkiston työntekijöitä eri asiantuntemuksen aloilta ja kävin läpi lukuisia asiakirjoja vuosien varrelta. Sen lisäksi, että toiminnan raportointi on sertifikaatin hakemisen edellytys, raportin kokoaminen on ollut hyödyllistä organisaation itsearvioinnin näkökulmasta. Yhteen dokumenttiin on nyt koottu kattava kokonaiskuva Tietoarkiston toiminnasta vahvuuksineen ja kehityskohtineen.

Tavoitteena sertifioinnin uusiminen vuosille 2017–2019

Raportti sertifikaatin hakemiseksi on toimitettu arvioijille ja odotamme Tietoarkistossa parhaillaan tietoa siitä, myönnetäänkö sertifikaatti meille vuosiksi 2017–2019. Sertifioinnin kriteerit ovat muuttuneet hieman aiemmasta, joten emme oletusarvoisesti pysty toteamaan, että sertifikaatti myönnetään sen perusteella, että se on myönnetty aiemminkin.

Visiomme mukaisesti toteutamme kuitenkin edelleen tehtäväämme luotettavana ja tunnettuna avoimen tieteen ja pitkäaikaissaatavuuden asiantuntijana, johon kuuluu oleellisesti toiminta, joka vastaa DSA-sertifioinnin mukaisia kriteerejä sähköisten aineistojen luotettavana pitkäaikaissäilyttäjänä.

Sertifiointi visuaalisesti esitettynä

Tietoarkisto järjesti keväällä työntekijöillensä koulutuspäivän, jonka aikana pääsimme oppimaan luovuudesta ja visuaalisten muistiinpanojen tekemisestä. Kokeilin oppimani perusteella yksinkertaistaa tässä blogitekstissä kirjoittamaani kokonaisuutta visuaalisiksi muistiinpanoiksi. Oleelliseksi osaksi muistiinpanojani olen nostanut ensinnäkin sen, että Tietoarkisto hakee sertifiointia ja toimittaa asianmukaisen sähköisen raportoinnin toiminnastaan sertifioinnista vastaavalle taholle. Toisena pääkohtana muistiinpanoissa on sertifiointimerkinnän saaminen. Jos toimittamamme raportti vakuuttaa arvioijat, Tietoarkiston toiminta saa julkisen ja kansainvälisesti tunnistetun luotettavuuden sinetin.

Sisällön lisäksi visuaalisten muistiinpanojen tekemisessä ovat tärkeitä pienet visuaaliset yksityiskohdat, kuten hahmojen juurruttaminen paikkaan. Tämän vuoksi Aineistonhallinnan käsikirjastakin tuttu Tietoarkiston Hemmo seisoo muistiinpanoissani kesäisissä tunnelmissa varpaat vihreänä kasvavassa nurmessa. Samaa rentoutumismetodia suosittelen kaikille blogitekstiäni kesällä lukeville henkilöille – kokekaa Hemmon tavoin vihreä kesänurmi sitä paljain varpain tunnustelemalla. Tuloksena nurmikon tunnustelusta paljain varpain ei myönnetä sertifikaatteja, mutta ripaus kesätunnelmaa siitä tarttuu varmasti matkaan.

Lisätietoa:
» Data Seal of Approval
» Tietoarkiston nykyinen DSA-sertifikaatti vuosille 2014–2017

Eliisa Haanpää
tutkimusamanuenssi
etunimi.sukunimi [at] uta.fi

Tietoarkisto haluaa olla jatkossakin DSA-sertifikaatin arvoinen

Tietoarkistolle on tärkeää avata tutkimusaineistot vastuullisesti ja luotettavasti, ja luonnollisesti haluamme kertoa luotettavuudestamme myös muille. Yksi hyvä luotettavuuden mittari on kansainvälinen Data Seal of Approval (DSA) -sertifikaatti. Sen saaminen edellyttää, että organisaatio säilyttää sähköisiä aineistoja luotettavasti ja mahdollistaa aineistojen jatkokäytön. Tällä hetkellä Tietoarkistolla on voimassa vuosille 2014–2017 myönnetty DSA-sertifikaatti. Koska nykyisen sertifikaatin voimassaolo päättyy vuoden vaihteessa, sen päivittäminen on juuri nyt ajankohtaista. Seuraavaksi kerron yleisesti DSA-sertifikaatista ja sen hakemisesta.

Mikä ihmeen DSA-sertifikaatti?

Kansainvälisen sertifikaatin takana ovat ICSU World Data System (WDS) ja Data Seal Of Approval, jotka yhdessä myöntävät Data Seal of Approval (DSA) -sertifikaatteja. Sertifiointi on suunnattu sähköisten aineistojen säilyttäjille, ja sen avulla pyritään osoittamaan kuinka luotettava tietoja säilyttävä organisaatio on. Luotettavuutta arvioidaan sähköisten aineistojen säilyttämisen kaikissa vaiheissa aina aineistojen vastaanottamisesta niiden pitkäaikaissäilyttämiseen sekä edelleen jakamiseen.

Sertifikaatin vaatimukset perustuvat viiteen kriteeriin. Kriteerien mukaan säilytettävien aineistojen tulee olla löydettävissä verkosta, niiden tulee olla saatavilla selkein käyttöehdoin, aineistojen tulee olla tallennettuina jatkokäytön mahdollistavissa tiedostoformaateissa, aineistojen tulee olla luotettavia ja aineistojen tulee olla yksilöitävissä niin, että niihin voidaan viitata yksiselitteisesti ja pysyvästi. DSA-sertifikaatti on myönnetty vuosiksi 2014–2017 Tietoarkiston lisäksi liki 60 toimijalle ympäri maailmaa.

Sertifikaatin hakeminen

Jotta Tietoarkistolle myönnetty sertifikaatti pysyisi voimassa ilman katkoja, työ sertifikaatin uusimiseksi on aloitettu hyvissä ajoin.

Uuden sertifikaatin hakeminen edellyttää, että hakija täyttää edelleen vaaditut organisatoriset lähtökohdat. Lisäksi hakijan on raportoitava tarkasti organisaation nykyisen toiminnan tilanne. Raportointi perustuu 16 kohdan ohjeistukseen, jonka mukaisesti aineistojen luotettava säilyttäminen on todennettava niin käytäntöjen, tekniikan kuin etiikankin näkökulmasta. Sertifikaatin hakijan täytyy voida osoittaa, että sen toiminnan taso vastaa sertifikaatin vaatimaa tasoa.

Kokosin yhdessä kollegoideni kanssa Tietoarkiston toimintaperiaatteista ja -käytänteistä ohjeistuksen mukaisen raportin, jota varten haastattelin arkiston työntekijöitä eri asiantuntemuksen aloilta ja kävin läpi lukuisia asiakirjoja vuosien varrelta. Sen lisäksi, että toiminnan raportointi on sertifikaatin hakemisen edellytys, raportin kokoaminen on ollut hyödyllistä organisaation itsearvioinnin näkökulmasta. Yhteen dokumenttiin on nyt koottu kattava kokonaiskuva Tietoarkiston toiminnasta vahvuuksineen ja kehityskohtineen.

Tavoitteena sertifioinnin uusiminen vuosille 2017–2019

Raportti sertifikaatin hakemiseksi on toimitettu arvioijille ja odotamme Tietoarkistossa parhaillaan tietoa siitä, myönnetäänkö sertifikaatti meille vuosiksi 2017–2019. Sertifioinnin kriteerit ovat muuttuneet hieman aiemmasta, joten emme oletusarvoisesti pysty toteamaan, että sertifikaatti myönnetään sen perusteella, että se on myönnetty aiemminkin.

Visiomme mukaisesti toteutamme kuitenkin edelleen tehtäväämme luotettavana ja tunnettuna avoimen tieteen ja pitkäaikaissaatavuuden asiantuntijana, johon kuuluu oleellisesti toiminta, joka vastaa DSA-sertifioinnin mukaisia kriteerejä sähköisten aineistojen luotettavana pitkäaikaissäilyttäjänä.

Sertifiointi visuaalisesti esitettynä

Tietoarkisto järjesti keväällä työntekijöillensä koulutuspäivän, jonka aikana pääsimme oppimaan luovuudesta ja visuaalisten muistiinpanojen tekemisestä. Kokeilin oppimani perusteella yksinkertaistaa tässä blogitekstissä kirjoittamaani kokonaisuutta visuaalisiksi muistiinpanoiksi. Oleelliseksi osaksi muistiinpanojani olen nostanut ensinnäkin sen, että Tietoarkisto hakee sertifiointia ja toimittaa asianmukaisen sähköisen raportoinnin toiminnastaan sertifioinnista vastaavalle taholle. Toisena pääkohtana muistiinpanoissa on sertifiointimerkinnän saaminen. Jos toimittamamme raportti vakuuttaa arvioijat, Tietoarkiston toiminta saa julkisen ja kansainvälisesti tunnistetun luotettavuuden sinetin.

Sisällön lisäksi visuaalisten muistiinpanojen tekemisessä ovat tärkeitä pienet visuaaliset yksityiskohdat, kuten hahmojen juurruttaminen paikkaan. Tämän vuoksi Aineistonhallinnan käsikirjastakin tuttu Tietoarkiston Hemmo seisoo muistiinpanoissani kesäisissä tunnelmissa varpaat vihreänä kasvavassa nurmessa. Samaa rentoutumismetodia suosittelen kaikille blogitekstiäni kesällä lukeville henkilöille – kokekaa Hemmon tavoin vihreä kesänurmi sitä paljain varpain tunnustelemalla. Tuloksena nurmikon tunnustelusta paljain varpain ei myönnetä sertifikaatteja, mutta ripaus kesätunnelmaa siitä tarttuu varmasti matkaan.

Lisätietoa:
» Data Seal of Approval
» Tietoarkiston nykyinen DSA-sertifikaatti vuosille 2014–2017

Eliisa Haanpää
tutkimusamanuenssi
etunimi.sukunimi [at] uta.fi

Datan lisäksi Tietoarkisto jakaa osaamista

Tietoarkisto on yksi avoimen tieteen keskeisistä toimijoista Suomessa. Tavoitteenamme on tuottaa tehokkaasti laadukkaita, luotettavia ja helposti saavutettavia data- ja aineistonhallintapalveluja tiedeyhteisölle. Ei mikään läpihuutojuttu. Pitää olla valmiuksia luoda uutta ja omata ajantasaista asiantuntemusta tutkimuksesta, menetelmistä, ohjelmistoista, tutkimusetiikasta, lainsäädännöstä, metadatasta, sähköisestä säilyttämisestä, tietoturvasta ja asiakaspalvelusta – vain muutamia mainitakseni. Niinpä tietoarkistolaisille on kertynyt ainutlaatuista asiantuntemusta monilta eri osa-alueilta. Monimutkaistuvassa maailmassa kellään ei kuitenkaan yksin voi olla kaikkea tarvittavaa osaamista. Tarvitsemme eri alojen asiantuntijoiden tiimejä ja organisaatioiden välistä yhteistyötä.

Aikaisemmin olen kirjoittanut Tietoarkiston aktiivisesta roolista eurooppalaisessa data-arkistotoiminnassa. Olemme laajasti mukana myös kotimaisissa avoimeen tieteeseen sekä aineistojen jakamiseen ja säilyttämiseen liittyvissä aloitteissa. Sekä kansallisissa että kansainvälisissä ympyröissä käytännön työ tehdään yleensä erilaisissa työryhmissä. Osaamisen ja tiedon jakaminen on työn onnistumisen tärkeimpiä edellytyksiä.

Laskin, että tällä hetkellä Tietoarkisto osallistuu 15 erilaiseen kansalliseen ohjaus-, asiantuntija- tai työryhmään. Vuodessa osallistumme niiden tiimoilta keskimäärin noin 70 kokoukseen. Aikaa kokouksiin ja niihin liittyviin tehtäviin kuluu noin kuusi henkilötyökuukautta vuodessa – enemmänkin, jos tietoarkistolaisilla on työryhmissä vetovastuuta. Luvuissa ovat mukana vain sellaiset ryhmät, joihin osallistumme osana perustyötä, eli joihin meillä ei ole erikseen hankerahoitusta.

Työryhmistä monet liittyvät Avoin tiede ja tutkimus (ATT) -hankkeeseen. Tietoarkisto tekee työtä ATT:n asiantuntijaryhmässä, palvelutyöryhmässä, PAS-työryhmässä, kansainvälisyystyöryhmässä, Tuuli-projektissa ja ATT:n ja Kansallisen digitaalisen kirjaston (KDK) yhteisessä oikeuksien metatiedot -työryhmässä. Olemme edustettuina myös KDK:n ohjausryhmässä, tietoarkkitehtuuriryhmässä ja PAS-yhteistyöryhmässä. Muista ryhmistä mainittakoon JHS Rekisterimeta -työryhmä, Tilastokeskuksen etäkäyttöjärjestelmän ohjausryhmä, TUHA-tutkimusaineistoryhmä ja Veteraanikansanedustajien muistitietoarkiston kehittämisryhmä.

Edellä mainitut ryhmät rakentavat hyviä yhteisiä käytäntöjä, standardeja ja erilaisia palveluita tiedeyhteisölle ja laajemminkin. Itse olen mukana useissa ryhmissä ja koen ne antoisina, vaikka turhautumisen hetkiäkin tulee. Välillä tuntuu, että työryhmä toisensa jälkeen puhuu samasta asiasta ja edistyminen on tuskallisen hidasta. Tampere-Helsinki–junamatka on tullut liiankin tutuksi.

Omalla kohdallani turhautuminen on onneksi useimmiten hetkellistä. Tutkimusdatan arkistointi ja avaaminen on suuri muutos tutkimuskulttuurissa, ja sähköinen säilyttäminen muuttaa arkistomaailmaa. Valtionhallinnon digitalisaation yhteydessä puolestaan tavoitellaan siilojen purkamista. Ajattelenkin, että päällekkäisiltä tuntuvat työryhmät heijastelevat näitä käynnissä olevia suuria toimintakulttuurimuutoksia ja jopa kuuluvat murrosvaiheeseen. Tämä ei tarkoita, etteikö työryhmissä ja niiden välisessä työnjaossa olisi tehostamisen tai selkeyttämisen varaa, mutta odotan tilanteen kohenevan ATT:n kaltaisten hankkeiden myötä. Jos jotain saisi toivoa, niin sitä, että alan toimijoilla olisi hieman enemmän kykyä ja mahdollisuuksia (eli käytännössä resursseja) nähdä omia lyhyen tähtäimen etujaan ja intressejään pidemmälle.

Tietoarkisto on vuosien mittaan ollut aktiivinen tiedon ja osaamisen jakaja. Olemme osallistuneet lukuisiin työryhmiin ja hankkeisiin. Kaiken kaikkiaan ne ovat olleet oivallisia tilaisuuksia reflektoida Tietoarkiston käytäntöjä, oppia muilta, ratkaista yhteisiä ongelmia ja jakaa Tietoarkistoon kertynyttä erikoisosaamista. Olemme myös oppineet, että joskus täytyy sanoa ei. Parhaimmillaan ryhmät ovat kuitenkin asiantuntijoiden ja organisaatioiden verkostoja, joissa erilaiset näkökulmat kohtaavat tarjoten pohjan uutta osaamista ja uusia palveluita luovalle yhteistyölle.

Lisätietoja
» Avoin tiede ja tutkimus -hanke (ATT)
» Kansallinen digitaalinen kirjasto (KDK)

Mari Kleemola
kehittämispäällikkö
etunimi.sukunimi [at] uta.fi

Datan lisäksi Tietoarkisto jakaa osaamista

Tietoarkisto on yksi avoimen tieteen keskeisistä toimijoista Suomessa. Tavoitteenamme on tuottaa tehokkaasti laadukkaita, luotettavia ja helposti saavutettavia data- ja aineistonhallintapalveluja tiedeyhteisölle. Ei mikään läpihuutojuttu. Pitää olla valmiuksia luoda uutta ja omata ajantasaista asiantuntemusta tutkimuksesta, menetelmistä, ohjelmistoista, tutkimusetiikasta, lainsäädännöstä, metadatasta, sähköisestä säilyttämisestä, tietoturvasta ja asiakaspalvelusta – vain muutamia mainitakseni. Niinpä tietoarkistolaisille on kertynyt ainutlaatuista asiantuntemusta monilta eri osa-alueilta. Monimutkaistuvassa maailmassa kellään ei kuitenkaan yksin voi olla kaikkea tarvittavaa osaamista. Tarvitsemme eri alojen asiantuntijoiden tiimejä ja organisaatioiden välistä yhteistyötä.

Aikaisemmin olen kirjoittanut Tietoarkiston aktiivisesta roolista eurooppalaisessa data-arkistotoiminnassa. Olemme laajasti mukana myös kotimaisissa avoimeen tieteeseen sekä aineistojen jakamiseen ja säilyttämiseen liittyvissä aloitteissa. Sekä kansallisissa että kansainvälisissä ympyröissä käytännön työ tehdään yleensä erilaisissa työryhmissä. Osaamisen ja tiedon jakaminen on työn onnistumisen tärkeimpiä edellytyksiä.

Laskin, että tällä hetkellä Tietoarkisto osallistuu 15 erilaiseen kansalliseen ohjaus-, asiantuntija- tai työryhmään. Vuodessa osallistumme niiden tiimoilta keskimäärin noin 70 kokoukseen. Aikaa kokouksiin ja niihin liittyviin tehtäviin kuluu noin kuusi henkilötyökuukautta vuodessa – enemmänkin, jos tietoarkistolaisilla on työryhmissä vetovastuuta. Luvuissa ovat mukana vain sellaiset ryhmät, joihin osallistumme osana perustyötä, eli joihin meillä ei ole erikseen hankerahoitusta.

Työryhmistä monet liittyvät Avoin tiede ja tutkimus (ATT) -hankkeeseen. Tietoarkisto tekee työtä ATT:n asiantuntijaryhmässä, palvelutyöryhmässä, PAS-työryhmässä, kansainvälisyystyöryhmässä, Tuuli-projektissa ja ATT:n ja Kansallisen digitaalisen kirjaston (KDK) yhteisessä oikeuksien metatiedot -työryhmässä. Olemme edustettuina myös KDK:n ohjausryhmässä, tietoarkkitehtuuriryhmässä ja PAS-yhteistyöryhmässä. Muista ryhmistä mainittakoon JHS Rekisterimeta -työryhmä, Tilastokeskuksen etäkäyttöjärjestelmän ohjausryhmä, TUHA-tutkimusaineistoryhmä ja Veteraanikansanedustajien muistitietoarkiston kehittämisryhmä.

Edellä mainitut ryhmät rakentavat hyviä yhteisiä käytäntöjä, standardeja ja erilaisia palveluita tiedeyhteisölle ja laajemminkin. Itse olen mukana useissa ryhmissä ja koen ne antoisina, vaikka turhautumisen hetkiäkin tulee. Välillä tuntuu, että työryhmä toisensa jälkeen puhuu samasta asiasta ja edistyminen on tuskallisen hidasta. Tampere-Helsinki–junamatka on tullut liiankin tutuksi.

Omalla kohdallani turhautuminen on onneksi useimmiten hetkellistä. Tutkimusdatan arkistointi ja avaaminen on suuri muutos tutkimuskulttuurissa, ja sähköinen säilyttäminen muuttaa arkistomaailmaa. Valtionhallinnon digitalisaation yhteydessä puolestaan tavoitellaan siilojen purkamista. Ajattelenkin, että päällekkäisiltä tuntuvat työryhmät heijastelevat näitä käynnissä olevia suuria toimintakulttuurimuutoksia ja jopa kuuluvat murrosvaiheeseen. Tämä ei tarkoita, etteikö työryhmissä ja niiden välisessä työnjaossa olisi tehostamisen tai selkeyttämisen varaa, mutta odotan tilanteen kohenevan ATT:n kaltaisten hankkeiden myötä. Jos jotain saisi toivoa, niin sitä, että alan toimijoilla olisi hieman enemmän kykyä ja mahdollisuuksia (eli käytännössä resursseja) nähdä omia lyhyen tähtäimen etujaan ja intressejään pidemmälle.

Tietoarkisto on vuosien mittaan ollut aktiivinen tiedon ja osaamisen jakaja. Olemme osallistuneet lukuisiin työryhmiin ja hankkeisiin. Kaiken kaikkiaan ne ovat olleet oivallisia tilaisuuksia reflektoida Tietoarkiston käytäntöjä, oppia muilta, ratkaista yhteisiä ongelmia ja jakaa Tietoarkistoon kertynyttä erikoisosaamista. Olemme myös oppineet, että joskus täytyy sanoa ei. Parhaimmillaan ryhmät ovat kuitenkin asiantuntijoiden ja organisaatioiden verkostoja, joissa erilaiset näkökulmat kohtaavat tarjoten pohjan uutta osaamista ja uusia palveluita luovalle yhteistyölle.

Lisätietoja
» Avoin tiede ja tutkimus -hanke (ATT)
» Kansallinen digitaalinen kirjasto (KDK)

Mari Kleemola
kehittämispäällikkö
etunimi.sukunimi [at] uta.fi

Digitaalinen humanismi ja avoimen datan (haasteellinen) huuma

Digitaalisen humanismin ympärillä pöhisee. Tietojenkäsittelymenetelmiä ja teknologiaa humanistis-yhteiskuntatieteellisessä tutkimuksessa hyödyntävä ala on ujuttautumassa opetukseen sekä tutkimukseen hitaasti mutta varmasti. Helsinki Digital Humanities esimerkiksi organisoi Helsingin yliopistossa digitaalisen humanismin opintokokonaisuutta, tutkijaseminaareja sekä hackathon-tapahtumia. Suomen Akatemian DIGIHUM-teema puolestaan pyrkii rohkaisemaan tutkijoita sekä tutkimushankkeita monitieteiseen yhteistyöhön digitaalisten ihmistieteiden alueella. Lisäksi aiheen ympärille kietoutuvia seminaareja ja konferenssia pullahtelee esiin kuin rusinoita vappusimasta.

Digitaalisen humanismin yhteydessä kysymys erilaisista aineistoista tai datasta näyttäytyy varsinkin tietoarkistotyön silmin kiintoisassa valossa. Digihumanismi on monessa tapauksessa varsin riippuvainen sähköisistä aineistoista. Aineistojen merkittävyys korostuu esimerkiksi Suomen Akatemian DIGIHUM-teemassa, jonka yksi keskeisistä tavoitteista linjaa aineistojen käytettävyyden ja niiden tunnettuuden edistämisen:

”Avoimen datan ja avointen tietokoneohjelmistojen avulla on mahdollista edistää huomattavasti humanististen ja yhteiskuntatieteellisten tutkimustulosten avoimuutta, läpinäkyvyyttä, toistettavuutta ja yhteisöllisyyttä. Avoimen datan ja avoimen lähdekoodin mahdollisuuksien tuominen humanistiseen tutkimukseen on erittäin ajankohtaista uusien, kaikille avointen ja yleisten tutkimusvälineiden tuottamiseksi siten, että ne parhaiten vastaavat tutkimuksesta nouseviin tarpeisiin.”

Avoin data näyttäytyy monesti digitaalisen humanismin ydinasiana, mutta avoimuuden ja jakamisen käytänteiden luontevassa omaksumisessa on haasteita. Alan tutkijoiden parissa jatkokäyttö – tai täsmällisemmin jakaminen – määrittyy tyypillisesti joko laajemmin tiedon jakamisen tai rajatummin erilaisten digitaalisten työkalujen jakamisen tärkeytenä. Helppo ja vaivaton pääsy avoimiin digitaalisiin resursseihin mielletään myös tärkeänä yhteistyön lisäämisen muotona. Avoimuus ja open access kiinnostavat tutkijoita, mutta avoimuudella viitataan tyypillisimmin tutkimusjulkaisujen avoimuuteen tai kulttuuriperintölaitosten avoimiin (ja usein digitoituihin) aineistokokoelmiin. Tässä tapauksessa avoimuus mielletään ensisijaisesti yksisuuntaisena käytäntönä, jossa tutkija tarvitsee pääsyn erilaisiin avoimiin aineistoihin voidakseen luoda ja kehittää digitaalisia käytänteitä. Haasteita tehokkaalle jatkokäytölle asettaa paikoin myös se, että digihumanistisessa tutkimuksessa käytetty tai tuotettu data ei yksinkertaisesti ole saatavilla, vaikka sen analysointiin ja esittämiseen olisi kehitetty näyttäviäkin teknisiä työkaluja, tietokantoja tai alustoja. Mikä on avoimuuden politiikan toitottamisen hyöty, jos vaivalla luodut ja analysoidut aineistot eivät ole millään tavalla saatavilla?

Digihumanismin raikkaan merelliset tuulet pyyhkivät yli Oslon, kun kaupungissa järjestettiin maaliskuussa Pohjoismaiden ensimmäinen digitaalisen humanismin konferenssi (Digital Humaniora i Norden).

Myös säilytyspaikkojen tai sopivien infrastruktuurien puute heikentää tulosten ja menetelmien leviämistä. Digitaalisesta aineistosta raskaasti riippuvainen tieteenala on ongelmissa, jos aineistoille ei löydy varmoja säilytyspaikkoja, jotka suojaavat ja hoitavat niitä oikein. Nopeasti kasvava ja alati muuntuva digitaalinen aines vaatii tarkkaa kontekstointia, metadatan lisäämistä ja mahdollista linkittämistä muihin asiaankuuluviin verkkoaineistoihin.

Digitaaliset säilytyspaikat ovat tulevaisuudessa avainasemassa, kun humanistilla aloilla pyritään luomaan toimivia e-infrastruktuureja. Digitaalisen humanismin kannalta olisi siten mielekästä pohtia, mikä tutkimusaineistoja säilyttävien, huoltavien ja jakavien tahojen rooli tulevaisuudessa on, ja kuinka ylipäätään olisi mahdollista luoda toimiva ja mahdollisimman kattava datainfrastruktuuri, joka huomioisi myös digitaalisen humanismin aineistotarpeet.

Lisätietoja
» Suomen Akatemian DIGIHUM-teema (pdf)
» Helsinki Digital Humanities

Katja Fält
tieteenala-asiantuntija
etunimi.sukunimi [at] uta.fi

Digitaalinen humanismi ja avoimen datan (haasteellinen) huuma

Digitaalisen humanismin ympärillä pöhisee. Tietojenkäsittelymenetelmiä ja teknologiaa humanistis-yhteiskuntatieteellisessä tutkimuksessa hyödyntävä ala on ujuttautumassa opetukseen sekä tutkimukseen hitaasti mutta varmasti. Helsinki Digital Humanities esimerkiksi organisoi Helsingin yliopistossa digitaalisen humanismin opintokokonaisuutta, tutkijaseminaareja sekä hackathon-tapahtumia. Suomen Akatemian DIGIHUM-teema puolestaan pyrkii rohkaisemaan tutkijoita sekä tutkimushankkeita monitieteiseen yhteistyöhön digitaalisten ihmistieteiden alueella. Lisäksi aiheen ympärille kietoutuvia seminaareja ja konferenssia pullahtelee esiin kuin rusinoita vappusimasta.

Digitaalisen humanismin yhteydessä kysymys erilaisista aineistoista tai datasta näyttäytyy varsinkin tietoarkistotyön silmin kiintoisassa valossa. Digihumanismi on monessa tapauksessa varsin riippuvainen sähköisistä aineistoista. Aineistojen merkittävyys korostuu esimerkiksi Suomen Akatemian DIGIHUM-teemassa, jonka yksi keskeisistä tavoitteista linjaa aineistojen käytettävyyden ja niiden tunnettuuden edistämisen:

”Avoimen datan ja avointen tietokoneohjelmistojen avulla on mahdollista edistää huomattavasti humanististen ja yhteiskuntatieteellisten tutkimustulosten avoimuutta, läpinäkyvyyttä, toistettavuutta ja yhteisöllisyyttä. Avoimen datan ja avoimen lähdekoodin mahdollisuuksien tuominen humanistiseen tutkimukseen on erittäin ajankohtaista uusien, kaikille avointen ja yleisten tutkimusvälineiden tuottamiseksi siten, että ne parhaiten vastaavat tutkimuksesta nouseviin tarpeisiin.”

Avoin data näyttäytyy monesti digitaalisen humanismin ydinasiana, mutta avoimuuden ja jakamisen käytänteiden luontevassa omaksumisessa on haasteita. Alan tutkijoiden parissa jatkokäyttö – tai täsmällisemmin jakaminen – määrittyy tyypillisesti joko laajemmin tiedon jakamisen tai rajatummin erilaisten digitaalisten työkalujen jakamisen tärkeytenä. Helppo ja vaivaton pääsy avoimiin digitaalisiin resursseihin mielletään myös tärkeänä yhteistyön lisäämisen muotona. Avoimuus ja open access kiinnostavat tutkijoita, mutta avoimuudella viitataan tyypillisimmin tutkimusjulkaisujen avoimuuteen tai kulttuuriperintölaitosten avoimiin (ja usein digitoituihin) aineistokokoelmiin. Tässä tapauksessa avoimuus mielletään ensisijaisesti yksisuuntaisena käytäntönä, jossa tutkija tarvitsee pääsyn erilaisiin avoimiin aineistoihin voidakseen luoda ja kehittää digitaalisia käytänteitä. Haasteita tehokkaalle jatkokäytölle asettaa paikoin myös se, että digihumanistisessa tutkimuksessa käytetty tai tuotettu data ei yksinkertaisesti ole saatavilla, vaikka sen analysointiin ja esittämiseen olisi kehitetty näyttäviäkin teknisiä työkaluja, tietokantoja tai alustoja. Mikä on avoimuuden politiikan toitottamisen hyöty, jos vaivalla luodut ja analysoidut aineistot eivät ole millään tavalla saatavilla?

Digihumanismin raikkaan merelliset tuulet pyyhkivät yli Oslon, kun kaupungissa järjestettiin maaliskuussa Pohjoismaiden ensimmäinen digitaalisen humanismin konferenssi (Digital Humaniora i Norden).

Myös säilytyspaikkojen tai sopivien infrastruktuurien puute heikentää tulosten ja menetelmien leviämistä. Digitaalisesta aineistosta raskaasti riippuvainen tieteenala on ongelmissa, jos aineistoille ei löydy varmoja säilytyspaikkoja, jotka suojaavat ja hoitavat niitä oikein. Nopeasti kasvava ja alati muuntuva digitaalinen aines vaatii tarkkaa kontekstointia, metadatan lisäämistä ja mahdollista linkittämistä muihin asiaankuuluviin verkkoaineistoihin.

Digitaaliset säilytyspaikat ovat tulevaisuudessa avainasemassa, kun humanistilla aloilla pyritään luomaan toimivia e-infrastruktuureja. Digitaalisen humanismin kannalta olisi siten mielekästä pohtia, mikä tutkimusaineistoja säilyttävien, huoltavien ja jakavien tahojen rooli tulevaisuudessa on, ja kuinka ylipäätään olisi mahdollista luoda toimiva ja mahdollisimman kattava datainfrastruktuuri, joka huomioisi myös digitaalisen humanismin aineistotarpeet.

Lisätietoja
» Suomen Akatemian DIGIHUM-teema (pdf)
» Helsinki Digital Humanities

Katja Fält
tieteenala-asiantuntija
etunimi.sukunimi [at] uta.fi

Sähköistä säilyttämistä ja sporttista tunnelmaa Dublinissa

Gaelilaisten urheilulajien suorituspaikka, Dublinin Croke Park –stadion saattaa aluksi tuntua melko erikoiselta paikalta järjestää digitaaliseen säilyttämiseen keskittyvä konferenssi. Onko tauoilla kenties tarkoitus pelata hurlingia tai gaelilaista käsipalloa? Pitääkö varoa, ettei joudu lounasjonossa taklatuksi? Nämä huolet osoittautuivat turhiksi, sillä sporttisesta ympäristöstään huolimatta kesäkuun lopulla stadionilla järjestetyssä The 1st Annual Conference on Digital Preservation for the Arts, Social Sciences and Humanities –konferenssissa (DPASSH) ei tarvinnut pelätä, että hiki nousisi pintaan ainakaan liikkumisesta. Ainoat lihaksetkin, jotka rasittuivat, olivat lähinnä istumalihaksia, sillä kaksipäiväisen konferenssin ohjelma oli tiivis.

Konferenssin tarkoituksena oli keskittyä erityisesti sellaisiin digitaalisen säilyttämisen haasteisiin, jotka ovat tyypillisiä humanistisille ja yhteiskuntatieteellisille aloille sekä taiteen tutkimukselle. Sen sponsorina toimi The Digital Repository of Ireland (DRI), joka oli näkyvässä roolissa koko konferenssin ajan. DRI on kansallinen infrastruktuuri, joka pyrkii säilyttämään, hoitamaan ja välittämään Irlannin kulttuuriperintöaineistoja sekä humanistista ja yhteiskuntatieteellistä dataa. Säilyttämisperiaate nousee aivan uuteen valoon, kun otetaan huomioon, että vuonna 1922 sisällissodan melskeissä tapahtunut asiakirja-arkiston (The Public Record Office of Ireland) tulipalo tuhosi suurimman osan Irlannin historiallisesta asiakirja-aineistosta 1200-luvun taitteesta vuoteen 1922. DRI:n tarkoituksena onkin kootusti kerätä yhteen olemassa olevat historian ja nykypäivän tietoaineistot tutkimuksen, opiskelun ja suuren yleisön saataville. DRI:lle on lisäksi heinäkuun alussa myönnetty arvostettu Data Seal of Approval –sertifikaatti, joka myönnetään organisaatioille, jotka säilyttävät sähköisiä aineistoja luotettavasti sekä mahdollistavat niiden jatkokäytön.

Konferenssin osallistujalista oli melko irlantilaisvoittoinen, mutta ilokseni mukaan oli eksynyt myös pohjoismainen kollega, Ruotsin tietoarkiston eli SND:n kieliaineistoista vastaava Caspar Jordan. Myös CSC oli lähettänyt paikalle KDK-PAS-hankkeen (Kansallinen Digitaalinen Kirjasto – Pitkäaikaissäilytys) kehitystyössä mukana olleen it-puolen edustajan. KDK:n perusideahan on hyvin samankaltainen kuin DRI:n, toisin sanoen digitaalisten kulttuuriperintöaineistojen keskitetyn pitkäaikaissäilytyspalvelun suunnittelu ja toteuttaminen.

Konferenssin punaisena lankana toimikin huoli ja vastuu valtavien aineistomassojen säilymisestä ja säilyttämisestä. Kun jo puhtaasti analogista historiallista, taiteellista, yhteiskuntatieteellistä ja kulttuuriperintöön liittyvää aineistoa on valmiina kilometrikaupalla, tuo omat haasteensa nykyinen digitaalinen aika, joka tuottaa jatkuvalla syötöllä valtavia, yli ymmärryksen käyviä aineistomassoja. Osa esityksistä pohdiskelikin erityisesti sitä, miten sovittaa analogiset aineistot digitaalisiin työnkulkuihin. Toisaalta taas osa esityksistä keskittyi nimenomaisesti jatkuvasti tuotettuun digitaaliseen materiaaliin ja sen mielekkääseen säilyttämiseen. Kuinka alati karttuvaa aineistoa (esimerkiksi Facebookissa, Twitterissä, e-lehdissä, jne.) saa talteen sitä vauhtia kuin sitä tuotetaan ja onko kaiken säilyttäminen ylipäätään mielekästä? Nykyisen digitalisoitumisen myötä erilaiset aineistot ovat lisäksi varsin hyvin saatavilla, mutta haasteita luo niiden pitkäaikaissäilytyksen turvaaminen, omistajuuteen niveltyvät kysymykset tai teknisiin ratkaisuihin liittyvät seikat.

Pääosassa olivat aineistot ja sisällöt, paikoin myös teoreettiset lähestymistavat tai aineiston hallinnan kysymykset. Melko monen esityksenpitäjän taustaorganisaatio tai projekti oli sellainen, jossa arkistoinnin lisäksi myös aktiivisesti digitoidaan aineistoja. Erilaisten esimerkkitapausten avulla avattiin sisällöllisiä ja käytännöllisiä ratkaisuja säilyttämiskysymyksiin. Muuan esitys viihdytti yleisöä esittelemällä varhaisen, 1990-lopun online-taideprojektin, The Bono Probability Positioning Systemin, joka toimi eräällä tapaa Google Street View -sovelluksen edeltäjänä. Sen ideana oli liittää erinäisiin Dublinin karttakohteisiin todennäköisyyslaskelma siitä, miten suurella todennäköisyydellä paikassa saattoi törmätä U2-yhtyeen nokkamieheen Bonoon. Projekti oli kieli poskessa luotu ja todennäköisyyslaskelmat täysin hatusta temmattuja. Projekti toimi kuitenkin hyvänä esimerkkinä siitä, millaisia haasteita on pyrkimyksessä säilyttää vanhempaa nettiin luotua digitaalista sisältöä, jota ei alun perin ole ajateltu säilytettäväksi. Perinteisempää ja arkistoalalle tyypillisempiä ongelmia pohdittiin muun muassa esityksissä, jossa esiteltiin arkaluontoiseen aineistoon liittyviä eettisiä ongelmia tai metadatan käsittelyä.

Kodikasta humanistihenkeä ja yhdessä tekemisen ilosanomaa huokunut konferenssi oli leppoisa kokemus, joka kuitenkin tarjosi melko monipuolisen kattauksen digitaalisten aineistojen kirjavaan maailmaan. Konferenssin irlantilaiset järjestäjät toivoivatkin, että DPASSH muodostuisi jokavuotiseksi. Tämän toiveen allekirjoitan mielihyvin.

Lisätietoa:
» DPASSH 2015
» The Digital Repository of Ireland
» The Bono Probability Positioning System

Katja Fält
tieteenala-asiantuntija
etunimi.sukunimi [at] uta.fi