Neue Dienstleistung: Private User Remote Access (PURA)

Unlängst hat swissbib eine neue Dienstleistung lanciert: Private User Remote Access, oder kurz: PURA. Das Bedürfnis danach entstand, weil Bibliotheksbestände eine wachsende Zahl an E-Medien beherbergen, auf diese jedoch oft nur Hochschulangehörige zugreifen können. Was bei reinen Hochschulbibliotheken in der Regel kein Problem darstellt, kommt bei Bibliotheken mit gemischtem Publikum und Kantonsbibliotheken besonders zum Tragen: nur ein Teil ihrer Nutzerschaft kann auf die lizenzierten E-Medien ihrer Bibliothek via SWITCHaai-Account zugreifen. Für weitere Nutzergruppen und spezifische Angebote mussten daher bislang individuelle Lösungen mit den einzelnen Publishern gesucht und natürlich auch selbst betrieben und gepflegt werden. Hinzu kommen Login-Möglichkeiten für spezifische Dienste von Microsoft u.ä. Ein exemplarisches Beispiel für die gewachsene Vielfalt an Zugriffsmöglichkeiten ist folgendes Login-Fenster:

Screenshot des Logins von Brockhaus: Individuelle Anmeldemöglichkeiten für Nutzende und umfangreiche Liste unterstützter Bibliotheken

Um ein mögliches Angebot zur Vereinfachung und nachhaltigen Vereinheitlichung solcher Zugänge zu schaffen, springt swissbib mit PURA in diese Lücke.

Im vergangenen Jahr hat swissbib, zusammen mit der Zentralbibliothek Zürich, einen Service eingerichtet, der es Nutzenden ermöglicht, mit einem SWITCH edu-ID-Account auf die lizenzierten E-Medien zuzugreifen. Der Zugang ist möglichst einfach gehalten. Interessierte Nutzende registrieren sich auf www.swissbib.ch für einen SWITCH edu-ID-Account, loggen sich ein und wählen in ihrem Profil die PURA-Dienstleistung für „ihre Bibliothek“ aus. Mit dem daraufhin erhaltenen Barcode müssen sie sich nun nur noch vor Ort bei der Bibliothek (leider aus lizenzrechtlichen Gründen erforderlich) freischalten lassen und haben somit ein Jahr garantierten Zugang, auch von Zuhause aus. Der Zugang kann selbstverständlich nach einem Jahr erneuert werden. SWITCH edu-ID ist eine nachhaltige Lösung: der Nachfolger des bisherigen Authentifizierungsverfahrens SWITCHaai ist auch für Privatpersonen zugänglich und wird national von SWITCH betrieben.

Technisch wurde eine möglichst einfach Lösung angestrebt, dennoch müssen einzelne Verlage technisch nachrüsten: die Shibboleth-Authentifizierung ist Pflicht. Zu beachten ist zudem, dass interessierte Bibliotheken mit den Publishern ihrer jeweiligen E-Medien-Angebote Kontakt aufnehmen und ggf. ihre Verträge nachbessern müssen. Die Journal-Archive des Projekts Nationallizenzen (Springer, Oxford, DeGruyter, Cambridge) sind jedoch generell und kostenlos im Angebot enthalten. Immerhin: Mit den bisherigen PURA-Bibliotheken wurden bereits bei mehreren Publishern die nötigen technischen Einrichtungen vorgenommen, so dass weitere interessierte Bibliotheken nur noch die vertragsrechtliche Situation klären müssen.

Weitere Informationen zu PURA finden sich im swissbib-Wiki oder im direkten Kontakt mit der swissbib-Koordination.

Was ist neu in swissbib? / Quoi de neuf dans swissbib?

Deutsche Version Version française

Liebe Blogleserinnen und Blogleser
In diesem Jahr war es relativ ruhig auf unserem Blog! Dabei gibt es eine Menge neue Funktionen, die wir schon längst vorstellen wollten. Mit dem hier folgenden Überblick holen wir das nun nach. Wir freuen uns auf eure kundige Einschätzung und euer Feedback.

Datenquellen

Die Dokumente der folgenden Quellen sind neu in swissbib zu finden:

Bis zum Jahresende werden wir ausserdem noch die folgenden Quellen integrieren:

  • Die im Volltext frei zugänglichen Dokumente der Forschungsplattform Alexandria der Universität St. Gallen.
  • Der Bestand der Kantonsbibliothek Thurgau

Nationallizenzen

Seit einigen Monaten haben Nutzer mit einem ständigen Wohnsitz in der Schweiz Zugang zu über 6 Millionen Dokumenten aus dem Projekt Nationallizenzen. Der Zugang und die Registrierung erfolgt über swissbib, in Partnerschaft mit dem Projekt SWITCH edu-ID (in swissbib anschauen).

Über die Nationallizenzen wird zudem die Open-Access-Publikation von Artikeln ermöglicht, die von Autoren, die einer Schweizer Institution angegliedert sind, verfasst wurden. Die betroffenen Metadaten und Volltexte wurden von swissbib aufbereitet und über RERO DOC veröffentlicht. Die Daten stehen auch für die Integration in die Institutionellen Repositories der Schweizer Hochschulen zur Verfügung.

Weitere Informationen sind in unserem Schlussbericht zum Projekt Nationallizenzen zu finden.

Linked Open Data

Das Projekt linked.swissbib.ch wurde Ende April 2017 abgeschlossen. Wir sind gegenwärtig damit beschäftigt, die Projektergebnisse im Hinblick auf eine Integration in swissbib zu konsolidieren.

Ein wichtiger Schritt war die Identifizierung und Kennzeichnung der offenen Metadaten. Wir freuen uns, dass inzwischen 85 % aller Daten von swissbib als Public Domain zugänglich sind (anschauen).

Für die Neugierigen unter euch: Werft gerne einen Blick auf data.swissbib.ch und linked.swissbib.ch, um zu sehen, was euch zukünftig erwartet. Die Portale sind aber erst als Beta-Version veröffentlicht. Wir befinden uns noch in der Konsolidierungsphase.

In einer Artikelserie in unserem Blog haben wir die verschiedenen Prozesse beschrieben. Ausserdem wurde ein Artikel zum Thema Interlinking Large-scale. Library Data with Authority Records publiziert.

Neue Funktionen

  • Verbesserte Facettensuche: Es ist neu möglich, Suchbegriffe durch Klicken auf das Kreuz rechts des Begriffs auszuschliessen. Mehrere gewählte Themen werden durch UND verknüpft. Die anderen Begriffe (Autoren, Sprache usw.) werden durch ODER verknüpft. Die gewählten sowie die ausgeschlossenen Suchbegriffe sind im Bereich «Filter löschen» sichtbar (weitere Informationen).
  • Verbesserte Anzeige der Hierarchie in den Archivbeständen: Zahlreiche Archivbestände sind in einer hierarchischen Struktur geordnet. In bestimmten Fällen kann diese Struktur im Reiter «Archive/Bestände» in swissbib angezeigt werden. (Beispiel).

Informationen zum System

  • Unser Datenverarbeitungstool CBS läuft inzwischen auf Version 8.
  • Das Update zur Version 4 unseres Discovery Tools VuFind ist praktisch abgeschlossen.
  • Alle unsere Server laufen nun unter Ubuntu 16.04.
  • Wir haben ein neues Statistik-Tool eingeführt, das auf der Analyse der Logs mit Elastic, LogStash und Kibana basiert.
  • Wir haben Sahi für automatisierte Tests der Web-Interfaces eingeführt.

Strategie und Zukunft von swissbib

Ende März 2018 wird die Finanzierung von swissbib durch swissuniversities auslaufen. Gegenwärtig sind wir dabei ein Modell der direkten Finanzierung durch die Bibliotheken einzuführen. Ausserdem planen wir die Integration von swissbb in die Swiss Library Service Platform (SLSP).

In diesem Rahmen:

Und zum Schluss noch einige Zahlen

swissbib zählt heute:

  • Über 30 Millionen Dokumente
  • Über 100 Millionen Exemplare, die in Schweizer Bibliotheken, Archiven oder online zugänglich sind
  • 90’000 Besucherinnen und Besucher pro Monate, die in dieser Zeitspanne 1,3 Millionen Seiten besuchen
  • 5 Personen, die am Projekt arbeiten (das Pensum entspricht 3 Vollzeitstellen)

More than two million scientific journal articles available

Deutsche Version Version française English version

Möchten Sie auf über 2 Millionen wissenschaftliche Artikel aus allen Fachgebieten zugreifen und haben Sie einen ständigen Wohnsitz in der Schweiz?
Drei elektronische Zeitschriftenarchive stehen ab sofort der ganzen Schweizer Bevölkerung zur Verfügung:

  • Cambridge University Press (Artikel veröffentlicht von 1770 bis 2015)
  • De Gruyter (Artikel veröffentlicht von 1826 bis 2015)
  • Oxford University Press (Artikel veröffentlicht von 1895 bis 2015)

Durchsuchen Sie die Archive direkt via Swissbib.
Registrieren Sie sich für den kostenlosen Zugriff: www.nationallizenzen.ch/anmeldung

Auch ohne Anmeldung können Sie auf die Zeitschriftenarchive zugreifen, wenn Sie eine der berechtigten Bibliotheken (zum Beispiel Universitäts- oder Kantonsbibliotheken) besuchen. Weitere Details zu den Zugriffsmöglichkeiten finden Sie auf www.nationallizenzen.ch/zugriff.

Inhalte aus dem Jahr 2016 werden nach zwei (De Gruyter), drei (Oxford University Press) und fünf (Cambridge University Press) Jahren Embargo verfügbar sein. Dieselbe Regelung kommt auch in zukünftigen Jahren zur Anwendung.

Weiterführende Information finden Sie unter www.nationallizenzen.ch.

Dieses Angebot wird vom Konsortium der Schweizer Hochschulbibliotheken mit Unterstützung von swissuniversities ermöglicht.

Mid-project report : Metadata Management National Licences

  • How will the articles from National Licences be integrated in Swissbib ?
  • How will private users from Switzerland be able to access this content ?
  • What are the plans regarding the implementation of the green open access clauses of National Licences ?

Curious ? Have a look at the Mid-Project Report : Metadata Management Swiss National Licences.

General Information about the National Licences project is available on http://www.nationallicences.ch.

National Licences and article metadata in Germany, Canada, France and Switzerland

National Licences and article metadata in Germany, Canada, France and Switzerland

Introduction – the Swiss Context

In 2015, Switzerland launched a Swiss National Licences project. This is a 2-year project, funded by swissuniversities / program SUK-P2 „Scientific information : Access, processing and storage“ with a total amount of 10 million Swiss Francs. 7.5 million to buy contents from publishers, 2 million to ensure preservation for the whole Switzerland (probably with Portico and LOCKSS) and 0.5 million for the negotiations of contracts, the overall management and the metadata management. The project is led by the Consortium of Swiss University Libraries (at ETH Zurich). The metadata management subproject has been allocated to the Swissbib team at the University of Basel.
Access will be possible for every partner of the Consortium : universities, universities of applied sciences, state libraries, research institutes… One of the goal is therefore to bridge the gap between “rich” and “poor” institutions in Switzerland. Interested private persons living in Switzerland can also access the content, directly from their home, after following a suitable registration.
The Swiss National licences will be coupled together with the current content licences. This process can be summarized as follows. Let’s say Switzerland has a national licence for journal articles for a given publisher covering the years 1947-2008. At the same time, some universities in Switzerland have a licence for current content covering 2009-2016. At the beginning of 2017, if some universities sign for 2017 content for this publisher, then one more year will be available as part of the national licence (meaning the national license is expanding to 1947-2009). The details (when a new year is added and under which conditions) may vary from publisher to publisher, but that’s the main idea.
The goals of the metadata management subproject are the following :
  • Private users. Build a search engine to allow private users in Switzerland to search and access the content which is licensed for them. This will be done using the Swissbib existing infrastructure. The registration and authentication mechanism will be created together with SWITCH.
  • Integration in Library Discovery tools. For participating libraries which already have some kind of discovery tools, the integration of content should be seamless, for example with the creation of dedicated targets in ExLibris SFX or Proquest Intota
  • Gain experience in article metadata management. The management of publisher’s metadata at the article level didn’t happen yet in Switzerland. The goal is to gain experience with this to deliver additional services later on (for example within the SLSP project) : text and data mining, discovery tools for smaller institutions (university of applied sciences) as well as a collaboration with international partners.
The contracts are not signed yet, but the goal is to sign them in Spring 2016 and have the portal live at the end of 2016. The negotiations are still happening and the contracts will be evaluated by an independent board (“Evalutionsgremium”) in the coming weeks.
At the start of the project, the goal was to gather what has been done abroad with this respect. There was a telephone call with the people from Toronto, a meeting in Göttingen with the people from GBV and Finc and a meeting in Nancy with the people from INIST. All that happened in January 2016.

Summary National Licences

 

Germany Ontario/Canada France Planned for Switzerland
Link http://www.nationallizenzen.de http://scholarsportal.info http://www.istex.fr
Start year 2004 2006 2012 2015
Number of articles in the platform 25 million 44 million 20 million 3.5 million
Budget > 120 million € 60 million € 10 million CHF
Main focus access preservation text and data mining access
Participating Publishers ~30 30 20 4
Pivot Format OCLC PICA+ NLM JATS MODS NLM JATS
Fulltext (pdf) delivery on the project platform yes, but via a proxy to the publisher’s platform yes yes no
Access for private users yes no no yes
Rights to share the metadata yes no yes yes
Language for transformation C and Java Java in the past, XSLT now XSLT XSLT
Document store OCLC CBS MarkLogic OCLC CBS
Search engine technology SOLR MarkLogic Elasticsearch SOLR
Front-end technology VuFind MarkLogic no Front-end VuFind

 

 

Summary Article Indexes

Articles indexes are not bound to national licences. They contain plenty of journal articles, which can then be matched with library e-journals holdings.

GBV Zentral Finc
Link http://findex.gbv.de http://finc.info
Start year 2012 2014
Number of articles in the platform 130 million 80 million
Participating Publishers ~40 mostly via crossref
Pivot Format marc21 local format
Rights to share the metadata yes yes
Language for transformation C and Java go
Search engine technology SolrCloud SOLR
Front-end technology no Front-end VuFind

 

 

Germany Nationallizenzen & Allianzlizenzen

Germany was a pioneer in national licensing. The DFG (Deutsche Forschung Gesellschaft) project German National Licences was launched in 2004 and followed in 2011 by the so called Allianz-Lizenzen. The National Licences were funded only by the DFG. The content licensed is accessible in the whole Germany. The Allianz-Lizenzen are funded at 25% by the DFG and at 75% by participating universities. The contents licensed are available only to participating institutions. After a couple of years (so called Moving Walls whose duration depends on the publishers), an Allianz Licence becomes a National Licence, and access is then granted to the whole Germany. Since the beginning of the project, Germany has been spending more than 120 million Euros on the various projects. The negotiations are done by 8 libraries in Germany and the metadata handling is done by the GBV (Gemeinsamer Bibliotheksverbund) in Göttingen.
Currently, they have managed the metadata of ~25 million journal articles (and other kind of content like book chapters). They got the metadata directly from the publishers. In the first years, processing this metadata was really a pain, but it has improved in recent years. They transform all metadata in OCLC PICA+ format and store it in OCLC CBS software. Access is done through the Suchkiste via a VuFind interface and a SOLR index. They loaded all content in the Suchkiste in 2010, but haven’t updated yet because this wasn’t a priority.
Interested libraries can download article metadata in MARC21 format (as an export from OCLC CBS) from the GBV. They can also access directly the GBV Zentral Index (SOLR). The metadata is available to everybody. The description of the collections (journal holdings) is in EZB, the German electronic journals database.
Regarding the fulltexts (pdf), access is done on the Publisher’s Platform directly, but the GBV store the pdf as well in case of failure. This amounts yet to 60 TB of data. In the contract for national licences, it was mandatory for the publishers to deliver the pdf on their own platform for the next 10 years.
The access is also possible for private users who live in Germany. The person needs to register online and give its private home address. The registration is than quickly checked by one of the 8 libraries (depending on the first letter of the last name) which subsequently sends a letter by post to the person. Password for login is enclosed in the letter. This process can last up to 10 days. At the time of the registration, the user must say which publisher he is interested in, because each of them have different conditions. Access is then done via a Shibboleth authentication to a proxy at GBV to access the National Licences content. On some publishers platform, it is also possible to login directly via Shibboleth. Since the beginning of the project, there has been more or less every year 8000 private active users. Every year 2000 more are added, and 2000 are removed because they are inactive.

 

 

Ontario/Canada ScholarsPortal project

The ScholarsPortal project from Ontario/Canada started in 2006. They deliver content (metadata + fulltext) to the members of all universities in the province of Ontario, in Canada. Meanwhile, they have worked with over 35 academic publishers and aggregators that are able to deliver article metadata and fulltext. After a focus on access in the first years, recently they invested more in the preservation aspects. They are now an audited trustworthy digital repository and act as a preservation agent for all university libraries of Ontario (ISO 16363, known as the Trusted Digital Repository Checklist). Currently ~3 persons (rather 3 FTE) are working for the journals part of Scholars Portal.
They have managed the metadata and fulltext of ~44 million journal articles. They get the metadata directly from publishers. They transform everything into NLM JATS format using either plain Java programming or XSLT stylesheets (in the recent years). Data is then stored in a MarkLogic Server, which is also used to search (via xQuery) and deliver content. For the last couple of years, they have also been processing eBooks, using the NLM BITS format. They even provide a navigation by Volume/Issue, using additional normalization rules. For libraries, they create dedicated targets in ExLibris SFX link resolver as well as in Serial Solutions knowledgebase, 360 Core. A researcher in Ontario can access the fulltexts (pdf or XML) either on the publisher’s platform or directly in the Scholars Portal. They observed differences in behavior between small and big universities. Users from larger universities tend to prefer publisher’s platforms whereas users from smaller institutions download a majority of content directly from Scholars Portal. On Scholars Portal, even the links (citations) between articles can be resolved internally in the portal.
They don’t have the rights to share metadata with libraries outside the consortium, but if a specific publisher agrees, on their side they are ready to share.

 

 

France ISTEX project

The ISTEX project started in 2012. It is planned until 2017 and funded with 60 million Euros (55 are allocated to buy content). It is a collaboration between :
  • the Couperin consortium which focus on collecting researchers and libraries needs
  • the ABES in Montpellier which does the negotiations with the publishers, as well as the signing of contracts. The integration in Knowledge Bases from Library IT Providers (such as ExLibris SFX) is also done by the ABES via the BACON project
  • the University of Lorraine in Nancy which is the representative of universities in the project
  • the INIST (from CNRS) in Nancy which is building the platform and processing publisher’s metadata
They have no plans to build a portal, but really to be a data hub, with a strong focus on Text and Data Mining. Currently ~15 persons are working at INIST for the ISTEX project. There are 16 million documents currently in ISTEX and this will go up to ~20 million until the end of the project. They get the metadata and fulltext directly from the publishers. They deliver the fulltext (pdf’s) to the researchers as well (which is not the case in the German project for example). In the contracts with publishers, the publishers only need to deliver the fulltext on their own platform for the next five years. The ISTEX team even analyzes the text content of pdf files, using among others the GROBID software. They enrich the contents (for example with geoNames from France). They have had a lot of problems with metadata and fulltexts from publishers : invalid XML with respect to the attached DTD’s, undocumented formats, strong heterogeneity of formats (even within the same journal over time), pdf of very poor quality, missing contents… In the last months, they asked the publishers to deliver the full content before signing the contract, to make sure that it is possible to work with the delivered content. They also ask the publishers to deliver a whole data package at once : metadata, fulltexts, description of the structure of the directories and filenames, list of journals with years and number of articles published, DTD’s, contact of a person responsible for technical details. In some cases, it was impossible to match the metadata and pdf’s. The preservation is done by another institution : the CINES. Everything received from Publisher is kept.
They offer all the content (metadata + fulltext) via a REST API. Researchers can then mine the whole content, or a specific collection. The first users are in the domain of automated text analysis or in the history of sciences. Up to know, the usage and interest is still timid, but this is growing. Libraries can also use these API to integrate the content directly in their online tools, or using the widgets provided by the project. They plan to insert all ISTEX metadata in tools like Ebsco Discovery Service or ExLibris Primo Central.
They analyze the incoming metadata with elasticsearch and Kibana, reporting the problems to the publishers. After that, they transform everything to MODS for metadata (using XSLT stylesheets) and TEI for fulltext. If the XML is invalid, they make what is necessary to deliver valid XML at the end. Indeed, the researchers who do text and data mining can use the original format from publisher as well.
Almost all metadata is licensed with an Etalab licence (a French licence very similar to Creative Commons Zero). This means that it is possible to share metadata with other libraries, even outside France.

 

 

Article Index : GBV Zentral

After building the suchkiste for the German national licences, the GBV went one step further and decided to build an article index that contains current content as well. In 2012, they launched GBV Zentral. Now, there are 130 million articles available in GBV Zentral. There is no front-end in GBV Zentral, it is an index based on the SolrCloud technology. The print collections of all the libraries of GBV are also included in GBV Zentral. Therefore, in total there are 158 million documents in GBV Zentral. 51 million of them have some kind of searchable enrichments (table of contents, reviews, front or back matters from publishers). If a library manage its journal holdings in EZB (the German electronic journal library), then it is possible to match GBV Zentral content with the electronic collections of a specific library to add a filter in the search. 76 libraries are using GBV Zentral (either for print collections, online contents or both), for example
Every year more than 1.8 billion searches are done in GBV Zentral. All the metadata comes from the publishers or some databases (like Pubmed). The process is more or less the same as for the German National Licences. The GBV Zentral is also used as a central place to deliver content to ExLibris Primo, Summon and Ebsco Discovery Service. GBV Zentral is updated daily.
Every interested institution in the world can use GBV Zentral at no cost.

 

 

Article Index : the Finc Project (Leipzig / Germany)

The Finc Project (from the University of Leipzig in Germany) is not bound to national licences in any ways. It has a very different focus : the goal was to build a local article index, without buying one (for example ExLibris Primo Central or Proquest Summon). The focus was really on efficiency and current availability, without having to take care on preservation or that much on metadata quality. There are ~3 persons working on the project.
With this in mind, they decided to get all metadata from Crossref. Crossref is the organization which delivers DOI to scientific publishers. It means that Crossref has some metadata for every journal article which has a DOI. The main advantage is that all metadata is already in a common format (crossref unified schema) and there is only one provider to take care of. The disadvantage is that the metadata is somehow poorer than the metadata which is directly available from the publishers. For example, abstracts are often missing. After this initial step, Finc decided to get the metadata from other sources directly as well (for example from JSTOR or DeGruyter).
Currently, the finc project has gathered more than ~80 million journal articles from crossref. They transform everything to a very simple internal flat format, using the go programming language. They index then all the metadata in Apache SOLR and show it to users using VuFind. There is a growing interest in Germany for the finc article index. Indeed, a library which uses VuFind as an online discovery tool can use it without too much complications. The Finc index is updated more or less on a monthly basis.

 

 

Implications for Switzerland

As the coverage dates for Swiss national licences (probably going up to 2015) won’t completely overlap with the projects from the other countries, we will need to process at least some metadata on our side. We can count on international partners for specific problems (a very bad metadata set that has already been processed or a publisher specific format that has already been transformed to a more standard one).
Here are what we plan to do for Switzerland. First, we set up a collection of metadata requirements for publishers. Here are some of the important points :
  • all metadata should be delivered using a Creative Commons Zero Licence to allow Switzerland to process it as needed (this allows for example the transformation towards linked open data at a later standpoint)
  • the publisher needs to deliver the whole metadata set before signing the contract. This allows the swissbib team to check the quality of metadata. Experience has shown that after signature, it is often too late
On the technical side, the plans are the following : Incoming metadata will be processed using Metafacture from the German National Library and analyzed with elasticsearch. It will be then transformed using XSLT towards a standardized NLM JATS format, with some additional requirements on mandatory metadata. The documents will then be stored in OCLC CBS and delivered to the users using SOLR and VuFind (same as the currenct swissbib architecture).
Additionnally, the metadata will be available via an OAI-PMH interface, an SRU web service as well as maybe a REST API. At the journal level, holdings in KBART format will be created and delivered to Vendors of Library Software for the creation of dedicated targets in Link Resolvers and Discovery tools.

Examples of metadata (JATS, MODS, MARC21, Crossref, finc)

As an example, the same article in various metadata formats.

Wieder tagesaktuell in swissbib: Bibliotheksverbund Alexandria

Der Bibliotheksverbund Alexandria umfasst 20 Bibliotheken inner- und ausserhalb der Schweizerischen Bundesverwaltung mit gut 1.3 Millionen Exemplaren. Als erster Verbund in der Schweiz wechselte Alexandria Ende 2013 auf ein cloudbasiertes Verwaltungssystem, das Bibliotheksmanagementsystem Alma der Firma Ex Libris. Swissbib konnte deshalb die Bestände vorerst nicht mehr aktualisieren (siehe die Meldung im swissbib-blog).
Seit zwei Wochen werden die Bestände der Bibliotheken in Alexandria wieder tagesaktuell in swissbib nachgewiesen. Wir haben damit erfolgreich ein neues Bibliothekssystem der dritten Generation integriert. Dass es beinahe zwei Jahre dauerte, liegt einerseits am neuen Bibliothekssystem, dessen Schnittstelle die Anforderungen noch nicht erfüllte. Anderseits verlangsamten personelle Wechsel bei swissbib und andere Projekte wie beispielsweise die neue Oberfläche in responsive design die Integrationsarbeiten.
Damit werden sämtliche Datenquellen in swissbib wieder regelmässig aktualisiert. Die gewonnenen Erfahrungen sind für zukünftige Systemwechsel in der Schweiz nützlich, sowohl für Verbünde wie für das Projekt swissbib.

Archivbestände und Handschriften in swissbib

Seit November in swissbib:

Diese und weitere hunderte Nachlässe und Archivbestände sowie tausende mittelalterliche und neuzeitliche Handschriften, Briefe, Manuskripte, Musikhandschriften, Fotografien und weitere Objekte werden im Verbund HAN erschlossen. Swissbib hat einen Teil dieser Archivdatenbank integriert, die Aufnahmen von Beständen und alle digitalisierten Dokumente. Damit werden einzigartige Bestände in Schweizer Bibliotheken sichtbarer.
In swissbib finden sich weitere Archivbestände und Handschriften, beispielsweise die digitalisierten Fotografien aus dem Schweizerischen Literaturarchiv und anderen Sammlungen der Nationalbibliothek oder die hochwertig digitalisierten Handschriften der virtuellen Handschriftenbibliothek e-codices. Laufende Verbesserungen und die weitere Integration von Archivbeständen sollen swissbib auch zu einem Fenster auf die reichen und einzigartigen Sammlungen der Schweiz machen.

swissbib als nationaler "datahub"

Als nationaler Katalog ist swissbib mehr als „nur“ eine Benutzeroberfläche für die schweizweite Suche. Der „swissbib-datahub“ besteht aus einer Reihe von quelloffenen und kommerziellen Komponenten, welche die bibliografischen Daten von Schweizer Verbundssystemen, Repositories und Archiven oder digitalen Bibliotheken einsammeln, zu einer einheitlichen Datenbasis verarbeiten und für diverse Such- und Datendienste ausgeben. Die offene und klar geschichtete Architektur erweist sich dabei für eine flexible Weiterentwicklung des Dienstes als grossen Vorteil.

Mit der Integration von BORIS ist die Zahl der in swissbib nachgewiesenen Datenquellen (Verbundssysteme von Bibliotheken, Repositories und digitalen Bibliotheken) auf 20 angewachsen. Die Datenbasis ist damit permanent gewachsen, im Juni 2015 sind über 21 Millionen Datensätze indexiert, die Anzahl nachgewiesener Exemplare ist weit höher. Den inhaltlich grössten Beitrag an swissbib leisten die Bibliotheksverbünde, allen voran NEBIS, gefolgt vom Westschweizer Verbund RERO und dem IDS Basel Bern. Nach weiteren Verbünden und der Schweizer Nationalbibliothek folgen digitale Bibliotheken und Repositories wie ZORA, retro.seals oder die Digitalisate von HelveticArchives. Als kleines, aber inhaltlich feines Schlusslicht werden mit e-codices auch digitalisierte Handschriften aus Schweizer Bibliotheken nachgewiesen.

Der „swissbib-datahub“ wird sich in dieses und nächstes Jahr weiterentwickeln, wachsen und auch an neue Gegebenheiten anpassen müssen:

  • Die Teilverbünde des „Informationsverbunds Deutschschweiz (IDS)“ und die Nationalbibliothek steigen dieses Jahr auf das neue internationale Erschliessungsregelwerk „Resource Description and Access (RDA)“ um. Diese Internationalisierung bringt nicht nur neue Regeln, sondern auch erweiterte Datenstrukturen und neue Inhalte. Swissbib wird die Erweiterungen nachziehen.
  • Die Integration weiterer Datenquellen ist in Planung. Vorgesehen sind u.a. die Kantonsbibliotheken Schaffhausen und Thurgau und kleinere Verbünde, weitere universitäre Repositories sowie nationale und regionale Bibliografien.
  • Bereits jetzt finden sich Archivbestände in swissbib, dieser Bereich soll in Zukunft ausgebaut werden. Bereits in den nächsten Monaten testen wir den Umgang mit Beständen des Verbunds „Handschriften – Archive – Nachlässe (HAN)
  • Qualitative Verbesserungen der Datenbasis beinhalten Verlinkungen, verbesserte Dedublierungen und einheitlichere Autorenansetzungen.

    Neu in swissbib: Bibliotheken Liechtenstein, e-codices und serval

    Ab sofort finden Sie die Bestände von „Bibliotheken Liechtenstein“, dem Verbund der Liechtensteinischen Landesbibliothek, die digitalisierten Handschriften von e-codices sowie das institutional repository von Lausanne „serval“ in swissbib. Der Bestand von swissbib wächst damit auf 20,7 Millionen Datensätze.

    Preview auf das neue swissbib – die Oberfläche

    Im Lauf dieses Jahres wurde fieberhaft am neuen swissbib gearbeitet. Seit heute ist eine Previewversion unter https://test.swissbib.ch live.

    Ohne das grundlegende Design allzu stark zu verändern wurde die Suchoberfläche ausgetauscht. Damit schliesst sich der Prozess ab, der letztes Jahr mit der Umstellung der Suchmaschine begonnen hat.
    Gleichzeitig wurde die Datenbasis von swissbib komplett neu strukturiert und aufgebaut.
    Das neue swissbib ist insgesamt flexibler und besser für zukünftige Entwicklungen gerüstet, dies nicht zuletzt aufgrund des vermehrten Einsatzes von OpenSource Software.
    Gleichzeitig wurde versucht, möglichst viele der über die Jahre zusammengetragenen Vorschläge umzusetzen. Über Feedback sind wir natürlich weiterhin froh.

    Neue Funktionen

    Besonders hervorzuheben ist die Bestellfunktion in swissbib, die aktuell für den IDS Basel/Bern freigeschaltet ist und auf http://baselbern.swissbib.ch getestet werden kann. In swissbib wird die Funktion erst mit dem Livegang aktiviert und kann in der Folge für weitere Verbünde aktiviert werden.

    Designanpassungen

    1. Auf vielfachen Wunsch wurde der Suchschlitz auf der Startseite verlängert. Dafür wird auf die Filteroption verzichtet, die aber weiter als Facette auf der Trefferliste angezeigt wird.
    2. Die Facetten wurden umgestaltet, so lässt sich die Jahresfacette individuell anpassen. Die übrigen können nun in einem Schritt auf 100 Einträge erweitert werden anstatt  mehrmals in 10er Schritten.
    3. Die Exemplaranzeige ist schlanker und für neue Anforderungen wie Bestellung aus swissbib gerüstet

    Umgestaltete Funktionen

    1. Die Favoritenbibliotheken wurden neu implementiert. Es werden nur noch nutzerrelevante Bibliotheken angezeigt anstatt alle in der Verwaltung verwendeten Zweigstellen.
    2. Dies bedingt auch die Umstellung der swissbib Bibliothekenverwaltung, die neu mehrsprachige Info-Links, verbundunabhängige Gruppierung für verschiedene Views und die gezielte Freischaltung bestimmter Bibliotheken per view ermöglicht. Aktuell werden die Daten nur in swissbib genutzt. Es ist aber geplant, sie öffentlich zugänglich zu machen.
    3. Die Anmeldung in erfolgt nun komplett mit switch-Services, was v.a. für nichtuniversitäre Nutzerinnen und Nutzer eine Verbesserung hinsichtlich Sicherheit und Komfort bedeutet.
    4. Die Darstellung von mehrstufigen Aufnahmen wurde komplett überarbeitet und zeigt nun einen hierarchischen Baum an.
    5. Stark erweitert wurde das Angebot an Exportformaten. Neben CoiNS für Zotero und Citavi sowie Endnote lokal werden neu Endnote-Web, Refworks, bibTEX  und RDF angeboten – nur für Fachleute interessant ist MarcXML.
    6. Verbessert wurde die Druckfunktion, die nun über das entsprechende Icon und den Druckbefehl des Browsers ausgelöst werden kann.
    7. Auf vielfachen Nutzerwunsch wurde die Merklistenfunktion erweitert, so dass neu Merklisten auch öffentlich zugänglich gemacht werden können.
    8. Eine Erleichterung bringen stabile URLs, die direkt aus der Adressleiste des Browsers kopiert werden können. Die bisherige Permalinkfunktion entfällt damit.
    9. Angenehm ist auch die verbesserte Stabiblität der Suchsessions, die über längere Zeit erhalten bleiben.
    10. Weiterhin verfügbar sind alternative Bestelloptionen wie EOD. Neu dazu kommt die direkte Verlinkung auf Lagepläne interessierter Bibliotheken.

    Entfernte Funktionen

    1. Reviews und Tags bei Büchern wurden während der letzten vier Jahre so gut wie nicht verwendet und fallen deshalb weg. Weiterhin vorhanden sind Tags bei den Merklisten, wo sie auch vermehrt eingesetzt wurden.
    2. Die bisherige Permalinkfunktion mit direktem Sharing wird ebenfalls nicht mehr angeboten, da mittlerweile eine einfachere Lösung existiert. Falls entgegen der tiefen Nutzungszahlen der bisherigen Funktion weiterhin Bedarf besteht, freuen wir uns über Feedback. 

    Ein zweiter Artikel widmet sich der neu gestalteten Datenbasis, die die Grundlage für Suche und Oberfläche bildet: