Vad är Big Science?
1. Inledning
Mänsklighetens nyfikenhet är drivkraften till all vetenskap. När vi slutar vara nyfikna, eller tror oss veta allt, så stannar utvecklingen och följs antagligen på sikt av en djup kris. Mest bedrägligt är antagandet att vi redan har all grundläggande kunskap över det som är "värt" att veta. "Värderingar" kan ge upphov till varningar, eller rent av förbud, för ytterligare kunskap, t.ex. rörande planeternas rörelse, genetiska studier eller säkrare kärnkraft. Men kunskapen kan aldrig vara ond eller god i sig -sådana utsagor är beroende av hur kunskaper används. Ökad kunskap är en naturlig strävan för mänskligheten och så länge nya frågor kan formuleras kan vi inte slå oss till ro.
Ett tidigt exempel på Big Science är världens sju underverk som har symboliserat människans storslagna förmåga att realisera mycket komplicerade ideer och objekt. Man kan diskutera den direkta nyttan av dessa konstruktioner men faktum är att t.ex. de egyptiska pyramiderna haft miljontals besökare och deras exakta mått och utformning har fascinerat inte bara matematiker, fysiker och andra vetenskapsmän utan även en stor allmänhet.
I dagens vetenskapsdebatt ställs ibland mot varandra två olika vägar för att göra nya storslagna upptäckter eller nå nya landvinningar, Big-Science mot Small-Science vägen, där argumenten ofta får icke-vetenskaplig karaktär. Forskning inom Big Science innebär att man skapar en facilitet där en hel rad experiment kan utföras, ofta i form av en samverkan mellan många grupper där den individuella insatsen ibland blir svår att identitiera för en utomstående. Projektet löper över lång tid vilket starkt styr verksamheten över flera år i en riktning som icke utan vidare kan ändras. Många unga forskare har inte fasta tjänster och kan därför inte säkert veta om de får vara med när frukterna av deras insatser skall skördas - då deras experiment når fram till datatagning och publikationer.
Debatten handlar också om hur vi skall kunna ackommodera visionär men dyr frontlinjeforskning med ofta exotiska och svårgripbara mål och hur denna skall värderas i förhållande till småskalig och kanske mera applicerad och samhällstillvänd forskning. Motsättningen Small-Big uppstår ibland när man söker göra jämförelser av olika vetenskapsgrenar där metodiken och instrumenteringen är olika. Men inom all forskning gäller att när forskningsfronten efter hand flyttas fram blir experimenten allt mera krävande att genomföra, dels därför att man vill ha ökad precision i mätningarna, dels för att prestanda och teknik ständigt utvecklas och ger nya möjligheter att studera tidigare oåtkomliga frågor.
Den experimentella verksamheten inom varje ämnesområde har en naturlig utveckling från litet till stort och att det inom fackområdet sällan råder någon motsättning mellan dessa begrepp. Som exempel på denna utveckling kan vi ta de subatomära fysiken som innefattar områdena kärn- och elementarpartikelfysik. Partikelfysiken har under 1900-talet utvecklats från att vara typisk Small Science, där små universitetsgrupper lokalt konstruerade apparatur och gjorde sina mätningar "hemma", till att bli Big Science där den experimentella verksamheten nu är koncentrerad till stora internationella centra.
2. En tillbakablick på subatomär fysik.
1911 publicerade Ernest Rutherford sitt berömda arbete The scattering of alpha and beta particles by matter and the structure of atoms , ett arbete baserat på mätningar utförda av två unga medarbetare, Hans Geiger och Ernest Marsden. Denna upptäckt krävde inte mera apparatur än vad som rymdes på ett skrivbord, men markerade ändå kärnfysikens födelse. Liknande experiment visade snart (1919) att tyngre atomkärnor såsom kväve har en inre struktur. James Chadwick upptäckt av neutronen 1932 ledde till förståelse av att kärnor byggs upp av protoner och neutroner som med ett gemensamt namn kallas nukleoner. När Otto Stern och hans medarbetare kort därefter kunde mäta nukleonernas (anomala) magnetiska moment stod det klart att nukleonerna inte var punktformiga utan hade utsträckning och därmed en inre struktur. Man hade vid denna tidpunkt inte helt klart för sig vad detta innebar. För att tränga in i denna inre struktur behövde forskarna bättre "mikroskop". Undersökningarna grundas ju på studier av kollisioner där en inkommade stråle av partiklar får växelverka med det strålmål man vill undersöka. Den inkommande partikelns våglängd är omvänt proportionell mot dess rörelsemängd (eller energi) och känsligheten för finare strukturer i strålmålet bestäms av denna måttstock.
Den experimentella komplexiteten i dessa mycket fundamentala tidiga experiment var inte större än att varje universitet med tämligen modesta resurser kunde återupprepa mätningarna i studenternas övningslaboratorium. Man hade just öppnat ett nytt forskningsfält och klarade av undersökningarna med ganska enkla hjälpmedel. Upptäckten av kärnans struktur och förståelsen av det periodiska systemet ledde till att mindre acceleratorer började konstrueras i stor skala under 1930-talet för att täcka medicinarnas behov av radioaktiva isotoper, men acceleratorerna utnyttjades till en början inte särskilt mycket för rent kärnfysikaliska experiment.
Under andra världskriget exploaterades fysikerna för att ta fram nya vapen- och försvarssystem. Partikelfysikerna utgjorde inget undantag. I England visade sig radarn vara effektiv mot tyskarnas bombflyg, och i USA ledde det s.k. Manhattanprojektet till atombomben. Neutronforskning blev en central del av dessa studier och för utvecklandet av kärnkraftverk. Övergången till mera komplicerad apparatur för grundforskning i partikelfysik under 1950- och 60-talen hänger samman med upptäckten i början av 1950-talet att nukleonen, liksom atomen och kärnan, kunde exciteras till högre energinivåer. Under denna period byggdes ett stort antal nationella acceleratorer med relativt kort livstid. Men man fann ganska snart att samverkan i större anläggningar hade både kvalitativa och kostnadsmässiga fördelar.
Ett stort antal nya partiklar, besläktade med nukleonen upptäcks vid nya acceleratorer i USA och Europa, bl.a. vid CERN i Geneve som skapades 1954 som ett internationellt västeuropeiskt institut för partikelfysik. Vid elektronacceleratorn i Stanford och med elektronenergier upp till 1 GeV (1 miljard elektronvolt) studerade Robert Hofstadter under 1960-talets början nukleonens struktur mycket systematiskt, och mätte hur elektrisk laddning och magnetism fördelar sig inuti denna. I dessa första mätningar föreföll nukleoner vara "mjuka" klot.
Under 1960-talets slut undersöktes vid lineäracceleratorn SLAC i Stanford protonen, som har en storlek på omkring 1 fermi (10-13 cm), med en rumsupplösning drygt 10 gånger bättre än tidigare genom bombardemang med högenergetiska elektroner. Denna elektronaccelerator, med en längd av över 3 km, var dåtidens starkaste elektron-mikroskop. Här fick elektronerna en maximal energi på 21 GeV vilket motsvarar 40 000 gånger elektronens vilomassa. Protonen befanns innehålla punktlika spridningscentra, eller korn, som kom att identifieras med de av Gell-Mann införda kvarkarna. Elektronerna växelverkar med dessa medelst kortvågiga virtuella fotoner som kopplar till kvarkens elektriska laddning. Upptäckten gjordes av Jerome Friedman, Henry Kendall och Richard Taylor och belönades med 1990 års Nobelpris i Fysik. Detta var inledningen till en intensiv utforskning av nukleonens inre struktur över hela världen, en forskning som pågår än idag. De mest avancerade undersökningarna i denna riktning utförs idag vid DESY i Hamburg där man konstruerat en kolliderare för 30 GeV positroner och 820 GeV protoner. Vid denna höga kollisionsenergi handlar det om mäta avstånd som är mindre än en tusendel av nukleonens dimension. Vi ser här tydligt hur en sekvens av alltmer ingående studier leder till krav på allt kraftfullare instrument.
Carlo Rubbia och hans forskarlag upptäckte 1983 vid proton-antiproton kollideraren SPS i CERN den svaga kraftens förmedlare W och Z som väger ca. 100 gångern mer än nukleonen, vars massa är 0.94 GeV. Under 1994 har den länge saknade toppkvarken äntligen signalerats, i data från proton-antiproton kollisioner vid Tevatronen i Fermilaboratoriet i USA, med en massa omkring 175 GeV. Detta är nu den tyngsta av de kända partiklarna, men jakten fortsätter på ännu tyngre objekt vars existens skulle lösa gåtor rörande partiklarnas släktskap med varandra (t.ex. mellan kvarkar och leptoner och mellan fermioner och bosoner, d.v.s. partiklar med olika spinn).
Experiment med höga kollisionsenergier kräver stora mikroskop - den hitintills största ringformade acceleratorn är elektron-positron kollideraren LEP vid CERN med omkretsen 27 km. Denna ger kollisionsenergier upp till 200 GeV och är en "fabrik" för studier av Z- och W-sönderfall. I samma tunnel planeras en ring av supraledande magneter, med ca 9 tesla magnetfält, för två kolliderande strålar av protoner (Large Hadron Collider) som skall ge kollisionsenergier drygt en faktor 10 större. Huvudmålet är här att finna Higgs-partikeln som antas kunna ge svar på frågan om hur partiklarna får sina massor. Ett annat mål är att finna nya supersymmetriska partiklar som skulle vara tecknet på en ny typ av släktskap mellan partiklarna och skulle kunna visa vägen mot en övergripande teori för de naturkrafter som har betydelse för växelverkan i mikrokosmos. LHC-projektet är kostnadsuppskattat till totalt 18 miljarder svenska kronor, löner ej inräknade, och byggtiden är ca 10 år. Denna anläggning som skall bli färdig år 2005 kommer att bli en arbetsplats för ca 4000 forskare från hela världen.
3. Varför frontlinjeforskning?
Det finns i tider av krympande resurser en klar motsättning om hur dessa skall fördelas mellan fri grundforskning och mera tillämpad teknologi och s.k. "samhällsnyttig" forskning.
Det finns en rad fundamentala frågor rörande fenomen som vi dagligen kommer i kontakt med och normalt accepterar som självklara, t.ex. tyngdkraft, massa och elektrisk laddning. Man kan analysera dessa begrepp och genom experiment söka identifiera vad som förmedlar tyngdkraft, skapar massa och elektrisk laddning. Man finner att det går att definiera en rad relevanta experiment för sådana studier, men att dessa experiment är mycket komplicerade och kräver resurser i form av kraftfulla acceleratorer och sofistikerad apparatur som definitivt faller inom kategorin Big Science. Skall kostnader hindra oss att få kunskap om dessa fundamentala begrepp?
Forskarsamhället rationaliserar sin verksamhet liksom industrin i tider av kris. Man blir tvungen att prioritera det som man anser vara absolut viktigast och ge avkall på ambitionen att gå fram på en bredare front; verksamheter läggs ned och omoderna anläggningar stängs till förmån för bättre projekt. Erfarenheter visar dock att det krävs ett visst tryck för att en sådan effektivisering skall ske; nöden är uppfinningarnas moder. Men detta är bara en liten del av sanningen ty konkurrens liksom en hög teknisk kompetens samlad i stimulerande miljöer är viktiga förutsättningar för innovationer. I samhället i övrigt vill man undvika situationer av monopolställning, vilket även bör gälla vetenskapliga miljöer.
Lineärkollideraren SLAC i Stanford där kvarkarna upptäcktes samlade forskare från hela USA. Acceleratorn var ett unikt verktyg som var alltför exklusivt för att kunna kopieras på andra laboratorier. Ett kriterium för Big Science kan just sägas vara att man samlas kring ett unikt instrument; resurserna koncentrerats till detta projekt. Man väljer att skapa en gemensam facilitet för experimentella undersökningar. I mindre nationer såsom Sverige torde tröskeln för att ett nationellt projekt skall räknas till Big Science vara en totalkostnad på mer än 100 MSEK (CELSIUS i Uppsala och MAXLAB i Lund).
CERN med dess 19 medlemsländer är ett exempel på Big Science där Sverige satsar drygt 100 MSEK i årsavgift. Drygt hälften av denna kostnad gäller gemensam personal som driver laboratoriet. Ca 100 svenska partikelfysiker har CERN som sin huvudsakliga arbetsplats eller inspirationskälla och kostnaden per capita för investeringar och experiment är alltså ca 1 MSEK per år, inklusive CERN-personalens löner, plus ca 20% i medel till utnyttjandet av CERN. Per capita är inte denna summa exceptionell, jämfört med den inom andra grenar av fysiken med huvudsaklig verksamhet i hemlandet (forskare med laboratorier hemma har en mindre synlig lönekostnad genom att tekniker och annan servicepersonal ofta avlönas av annan källa än projektetmedel medan det internationella laboratoriet har alla utgifter täckta av medlemsavgiften).
CERN är på många sätt en modell för internationellt samarbete. Det var den första stora vetenskapliga kraftsamlingen i Europa efter andra världkriget, och en brygga för kontakter mellan forskargrupperna i Väst- och Centraleuropa. En samlad vetenskaplig och teknisk expertis på CERN gav Europa en möjlighet att starta på nytt och så småningom föra forskningen i nivå med den i USA som under kriget absorberat toppen av den vetenskapliga världseliten. Under 1980-talet och framåt har trenden i forskarutbytet i partikelfysik mellan Europa och USA vänt så att antalet amerikaner som utnyttjar CERN nu är långt större än antalet europeer som utnyttjar anläggningar i USA. Denna trend förstärks av amerikanernas beslut 1993 att inte fullfölja byggandet av den stora proton-proton kollideraren SSC i Texas. Det amerikanska deltagandet i LHC är vad gäller antalet fysiker nu betydligt större än det för den största bidragsgivaren till CERN, Tyskland.
Eftersom alla progressiva vetenskapsgrenar har behov av alltmer avancerade instrument och tendensen går mot internationellt samarbete för att kunna realisera detta så är det viktigt att en övergripande planering finns. OECD har tagit initiativ till expertmöten där Big Science-projekt diskuteras och forum där politiker tidigt får ta del av dessa planer. Avsikten är att lägga upp en tidtabell för olika storprojekt och om möjligt fördela dessa på ett förnuftigt sätt. Forskarsamhället är inte helt oväntat emot en alltför sträng politisk toppstyrning men måste ändå i högre grad än tidigare vara berett på att det skapas en turordning mellan olika intressen. Erfarenheterna från SSC visar att det är vanskligt att inte knyta nya storprojekt till existerande starka miljöer med utbyggd infrastruktur. Kontinuitet och återanvändning av infratruktur har kännetecknad de mest framgångsrika laboratorierna såsom CERN och Fermilaboratoriet i USA.
Big Science kräver utomordentligt god planering med detaljerade tekniska beskrivningar och tidsplaner om projekten skall bli finansierade. LHC började i själva verket planeras samtidigt som förgångaren LEP byggdes. Den 27 km långa tunneln fick en större diameter än vad elektronkollideraren LEP krävde just med tanke på en senare protonkolliderare. Men det formella beslutet om att bygga LHC fick vänta till i december 1994.
Partikelmikroskopen har omväxlande baserats på acceleration av elektroner och protoner. I princip föredrar man att göra experiment med elektron/positron eftersom dessa partiklar är elementära partiklar som inte fragmenterar, eller splittras upp, vid kollisionen. Protoner, som är sammansatta system av mindre beståndsdelar, ger vid en högenergikollision restprodukter huvudsakligen i form av hadroner. Detta gör det svårare att rekonstruera händelseförloppet och orsaken till själva växelverkan. De flesta acceleratorer har byggts i form av ringar med avböjande magneter där partiklarna cirkulerar under lång tid. Men vid extremt höga partikelhastigheter ger avböjningen upphov till stora energiförluster i form av synkrotronstrålning (ljus); denna strålning växer med fjärde potensen av energin medan den bara avtar direkt proportionellt mot radien på avböjningen. Detta sätter i själva verket en gräns för den energi man kan uppnå, speciellt för elektroner och positroner som har en liten massa och därför närmar sig ljushastigheten vid lägre energier än exempelvis protoner. LEP är den största ringformiga elektronacceleratorn hittills och utgör i praktiken något av ett gränsfall för hur stora synkrotronstrålningsförluster man kan acceptera, tekniskt och ekonomiskt.
Vill man konstruera ännu kraftfullare elektronmikroskop så måste dessa göras linjära; man slipper då synkrotronstrålningsförluster med måste då acceptera att elektronerna endast passerar acceleratorstrukturen en gång. För att inte acceleratorn skall bli orimligt lång krävs enorma elektriska fält som skall driva fram de laddare partiklarna till en hög sluthastighet. Man har nu lyckats konstruera elektriska fält på bortemot 200 megavolt per meter och kan därför på allvar diskutera linjära kolliderare för elektron/positron där dessa kan tillföras en energi på 1000 GeV, eller 5 gånger högre än vid LEP200. De fenomen man vill studera vid 1000 GeV har alla låga träffytor och kollideraren måste därför ha en extremt hög luminositet. Denna kvalitetsfaktor är proportionell mot strömmarna av elektroner och positroner och omvänt proportionell mot strålarnas dimensioner. Kraven är att ca 1011 elektroner fokusseras i kollisionspunkten så att elektronknippets höjd och bredd är ca 10 nanometer. Detta är ett formidabelt problem att lösa, liksom skapandet av de höga elektriska fält som krävs för accelerationen. Men även för linjära kolliderare finns en begränsning; när det intensiva knippena av elektroner och positroner möts växelverkar dessa elektromagnetiskt och s.k. beamstrahlung sänds ut. Detta ljus är mycket mera energetiskt än synkrotronstrålningen och leder till betydande energiförluster hos de inkommande elektronerna/positronerna vilket bl.a. medför att en av de bästa egenskaperna hos nuvarande elektron-positronkolliderare går förlorad - man känner inte längre den exakta kollisionsenergin.
Planeringen för linjära elektronkolliderare har pågått i ca 10 år och är i nuläget ett samarbete mellan de största laboratorierna över hela världen. När den första kollideraren av denna typ byggs någon gång i början av 2000-talet så kan vi till sist få ett världsomspännande samarbetsprojekt, om den nationella prestigen läggs åt sidan. Kostnaden kommer att ligga i nivå med SSC; även om Japan eller USA rent teoretiskt nationellt skulle klara av en sådan investering så har de europeiska projekten, HERA i DESY och LHC vid CERN visat vägen för globala samarbetsformer.
När det gäller protonkolliderare så har man ännu inte nått den teknologiska gränsen för ringformade anläggningar. SSC planerades för 40000 GeV kollisionsenergi i en ringformad tunnel med omkretsen 87 km - det skulle antagligen, med ny teknologi för supraledande magneter, vara möjligt att öka energin till det dubbla. Detta skulle vara ett stort steg förbi de 14000 GeV som LHC kan leverera samt vad linjärkolliderare för elektroner kan uppnå. Kanske får vi i framtiden se planer på ett återupplivande av SSCi ny skepnad?
4. Teknikutveckling.
Partikelfysikern är väl medveten om begränsningarna i experimenten liksom av möjligheterna att uppnå bättre resultat om apparaturen vore litet bättre - om han hade råd att köpa det senaste inom teknologin. Vilka krav har man på instrumenten? Vilken information måste man samla in från detektorn?
Partikelflödet är som regel en stark funktion av energiskalan i de kollisionsprocesser som studeras. Ökad strålintensitet för mätning av sällsynta förlopp kan medföra en besvärande bakgrund från mera dominerande förlopp. Sensorerna har efter hand blivit allt mera komplicerade genom att de fått flera och mindre oberoende element. Partiklar identifieras genom att deras massa kan bestämmas ur sambandet M2 = E2 - p2, där E betecknar energi och p rörelsemängd (vi antar att ljushastigheten är 1).
Rörelsemängden bestäms genom att partikelbanans avböjning i ett magnetfält registreras. Här samverkar apparaturens förmåga att skapa höga magnetfält med precisionen i positionsbestämningen som baseras på mätningar av frigjorda elektronen från partikelns jonisation av detektormediat. Under 1950- och 60-talen då många nya hadroner upptäcktes utnyttjade man ofta bubbelkammare som avfotograferades. Man fick på detta sätt en mycket fullständig och noggrann information of händelseförloppet men avsökningen av bilderna var mycket arbetskrävande och långsam. När elektronisk registrering under 1960-talet blev mera allmän ökade räknehastigheten och därmed det statistiska underlaget med en faktor 1000 eller mer medan mätnoggranheten försämrades något. Detta förhållande har nu ändrats radikalt och mätnogranheten i gasfyllda detektorer kan numera vara 50 mikrometer, i stort sett likvärdigt med bubbelkammare och emulsion, medan strimlade kiseldetektorer eller etsade driftkammare kan ge ytterligare en faktor 10 bättre upplösning. Komplexiteten hos den elektroniska spårdetektorn avhänger alltså starkt av partikelflödet i de processor som studeras. I början av 1970-talet byggdes för protonkollideraren ISR på CERN de första stora elektroniska spårdetektorerna med ca 50 000 utläsningskanaler. Under 1990-talet är det inte ovanligt att antalet kanaler är 10 gånger fler. Samtidigt har priset per kanal sjunkit med minst samma faktor.
Energimätningen kan ersättas av en bestämning av partiklens hastighet. Det finns många metoder att bestämma hastighet, t.ex. genom löptids- eller jonisationsmätning. Precisionen i en tidsbestämningen är numera en bråkdel av en nanosekund, medan jonisations-mätningar kan utföras med en precision på några få procent. Som andra metoder för hastighetsbestämning utnyttjas Cerenkovljus eller övergångsstrålning. Den förra metoden bygger på att partiklar kan röra sig snabbare än ljuset i ett transparent medium varvid en vågfront av ljus utsändes med en karakteristisk öppningsvinkel. Övergångsstrålning är en effekt med utsändning av relativt energetiska fotoner när extremt snabba partiklar passerar gränsytor med olika dielektricitetskonstant. Partikel-identifieringen kan vara ganska enkel att åstadkomma för partiklar som är väl åtskilda i tid och rum, men är extremt krävande i täta partikelflöden.
Detektorerna för LHC skall klara extremt täta partikelflöden. Detta ställer nya krav på rums- och tidsupplösning, detektorelementens storlek, liksom på strålningshärdigheten av allt material. Jonisationen från partikelflödet under en datatagningsperiod på 10 år svarar mot en total bestrålning på bortemot 10 megarad i centrum på detektorn. Paradoxalt nog innebär detta att de största detektorerna som hittills planerats för partikelfysiken kommer att innehålla de allra minsta strukturerna. Eftersom antalet celler och därmed antalet elektronikkanaler blir extremt stort uppträder helt nya logistiska problem för elektronik, kontaktering, transport av data, kylning. Man kan inte längre köpa standardkomponenter därför att dessa saknar tillräcklig strålningshärdighet, är alltför skrymmande och utvecklar för mycket värme.
I stället utvecklar fysikerna sina egna integrerade komponenter med en kanalkostnad som reducerats med en stor faktor jämfört med tidigare, och elektronisk CAD har blivit standardverktyg för grupperna. Vanliga elektriska ledningar och kontakter går inte att använda utan man måste i stor skala utnyttja optiska modulatorer, där små elektriska detktorsignaler påverkar intensiteten hos laserljus, och fiberoptik. Telekommunikationen utnyttjar redan denna teknik, men priset är en faktor 1000 högre än var fysikerna har råd att betala och komponenterna är stora. Varje kanal behöver sin egen laserkälla och mikrolasrar kommer att bli en ny stor produkt för drivningen av dessa optiska länkar. Dataflödet i ett LHC-experiment motsvarar hela världens samlade telefontrafik. Det krävs därför en kapacitet på växel och adressering som man aldrig tidigare mött.
De experimentella grupperna som gemensamt bygger en LHC-detektor omfattar mer än 1000 forskare spridda över hela världen som kommunicerar elektronisk över datanät. Europa har sämre och dyrare nätverk än USA, delvis beroende på nationsgränser och protektionism. Telefon och fax har ersatts av elektronisk post och information läggs i World Wide Web, utvecklat vid CERN-laboratoriet, som nu blivit en allmän informationskälla för alla. Samtidigt har varje forskare på sitt skrivbord sin egen arbetsstation med en beräkningskapacitet som motsvarar 70- och 80-talets datacentraler. Denna explosion i datakommunikation har vi bara sett början av.
5. Sociologi i Big Science, nordisk samverkan.
Stora experiment och centralt fattade beslut kan lätt få unga fysiker att känna sig vilsna. Det är viktigt att dessa får överblick över hela verksamheten, att seminarier och kurser organiseras med en bred vy över fysik och teknik. De unga måste också få del av ansvaret och tekniskt arbete och programutveckling bör få lika hög status som traditionellt analysarbete. Modern utbildning med datorer och teknisk skolning ger unga fysiker relativt lätt ett övertag över de äldre fysikerna liksom deras större möjligheter till ostörd koncentration och arbetsinsats. De blir snart experter på olika tekniska aspekter i datatagningen. Arbetet i stora experiment har större likheter med industriella krav på planering och kvalitet än experiment inom Small Science vilket också är en god skola för framtida anställningar.
Inom Big Science utgör de enskilda universitetsgrupperna en ganska liten del av helheten - samverkan mellan flera grupper kan vara ett sätt att effektivisera arbetet och få en klarare forskningsprofil. Detta blir ganska naturligt inom en nation där finasierings-källorna är gemensamma - flera mindre grupper kan samlas under en hatt och framstå som en stark partner. Samarbete mellan grupperna öppnar också för fler möjligheter bland de mest lovande unga forskarna att få forsätta med sin forskning. Hindret för sådan samverkan kan ofta skyllas på alltför kraftigt revirtänkande bland de etablerade forskningsledarna.
Traditionellt har rörligheten bland forskarna i Norden varit ganska låg jämfört med vad som är fallet speciellt i de större länderna. Det är på många håll omöjligt för en ny PhD att få anställning vid samma universitet. I Norden är premieringen av rörligheten svag, trots speciella punktinsatser från exempelvis NORFA och forskningsråd, där postdoktors-stipendier förutsätter ett byte av miljö. Unga forskare som arbetat som stipendiater i internationella laboratorier ges av forskningsrådet i Sverige repatrieringsstöd på 6 månader om de återvänder till sin ursprungliga miljö, men 12 månader om de byter universitet. Trots dessa stimulansårgärder är rörligheten svag, vilket antagligen beror på att åtgärderna inte är tillräckligt starka - en kvalificerad forskare vill ha en bättre morot än ännu ett tidsbegränsat och icke särskilt stort stipendium. Antingen måste bidragen vara mycket större än vad som nu är fallet, eller också måste den unge forskaren se att chansen finns för en tryggad anställning om han sköter sig.
All grundvetenskap har som mål att ge nya data om den värld vi lever i. Instrumenten är inget självändamål och har som regel relativt kort livstid. Men de är till för att ge oss bästa möjliga data och analysen av data är en huvuduppgift som kräver allt större resurser vad gäller datorer. Detta har blivit en ny flaskhals som kräver speciella insatser och som experimentalister och teoretiker har samma behov av. Norden har med Nordunet skapat ett av de mera avancerade nätverken i Europa. Kanske skulle en särskild satsning på användarsidan vara ett effektivt sätt att främja såväl Big som Small Science - speciella riktade anslag för lokala fiberoptiska länkar och nätverksväxlar, och en decentraliserad datoranvändning baserad på samverkande avancerade arbetsstationer som utnyttjar ett enhetligt systemtänkande.
Det kommer att bli alltmer uppenbart att investeringar i stora instrument åtföljs dels av betydande driftskostnader för att köra dessa, dels av motsvarande satsning på dataanalysen och ständig förnyelse av analysverktygen. När vi satsar på Big Science skall man inte glömma denna aspekt av totalfinansiering, vilket ställer mycket stora krav på långsiktighet och stabilitet i forskningsplaneringen över en period på upp till 20 år.
Vilka former den grundläggande vetenskapen än må ta, Big Science eller Small Science, så är det ett omistligt inslag i vår civilisation att lära mer om Naturen och Universum. CERN:s före detta generaldirektör Viktor Weisskopf har skrivit (Science 176, 138 (1972)):
All parts and all aspects of science belong together. Science cannot develop unless it is pursued for the sake of pure knowledge and insight....... Human existance depends upon compassion and knowledge. Knowledge without compassion is inhuman; compassion without knowledge is ineffective.