W trosce o maturzystów, dwie uczelnie napisały oficjalne pismo w tej sprawie, oceniając "realną wartość rankingu".
Wielu maturzystów, decydując o wyborze uczelni, kieruje się ich pozycją w rozmaitych zestawieniach. Dlatego szalenie ważne jest, aby tego typu rankingi były przygotowywane w sposób rzetelny i przemyślany. Niestety ranking opracowany przez redakcje „Wprost” i „Dlaczego” do takich nie należy. Treść ankiety przysłanej uczelniom przez organizatorów zestawienia świadczy o tym, że nie tylko nie wiedzą, jak zróżnicowany jest rynek edukacyjny w Polsce, ale też nie znają nawet podstawowych przepisów prawa dotyczących szkół wyższych. Bo jak inaczej wytłumaczyć zamieszczenie w ankiecie pytania np. o to jak uczelnie sprawdzają wiedzę kandydatów na studia? Pewnie już nie tylko każdy licealista, ale i gimnazjalista wie, że podstawą kwalifikacji na studia stacjonarne w Polsce od 2005 r. jest wynik egzaminu maturalnego, a jedynie wyjątkowo na nielicznych kierunkach uczelnie mogą za zgodą ministra organizować dodatkowe egzaminy „w zakresie niepowtarzającym przedmiotów maturalnych”.
Najważniejszy problem dotyczący ankiety przesłanej przez „Wprost” i „Dlaczego” polega jednak na tym, że pytania w niej zawarte sformułowano w sposób szalenie nieprecyzyjny. W przypadku bardzo wielu pytań autorzy nie podali dodatkowych wyjaśnień, pojawiających się w innych tego typu ankietach. To sprawiło, że odpowiedź na nawet z pozoru błahe pytanie, nastręczyłaby uczelniom, które rzetelnie podchodzą do wypełniania tego typu ankiet, nie lada trudności.
Doprawdy trudno np. zgadnąć co mieli na myśli autorzy rankingu pytając o to „jaka jest liczba publikacji krajowych (średnia) wydanych w 2009 roku przypadających na samodzielnego pracownika naukowego uczelni”. Nie wiemy, czy należało liczbę wszystkich publikacji krajowych wszystkich pracowników uczelni (a może tylko samodzielnych?) podzielić przez liczbę pracowników samodzielnych? A może chodziło o liczbę publikacji tylko pracowników samodzielnych podzielonych przez ich liczbę?
Wręcz kuriozalne wydaje się pytanie o to „ilu pracowników naukowo-dydaktycznych wyjechało za granicę w 2009 roku?" Autorzy nie zaznaczyli w żaden sposób o jakie wyjazdy chodzi. Należało podać wyjazdy pracowników w celach dydaktycznych i naukowych? A może doliczyć też ich udział w konferencjach? A może także dodać wyjazdy wakacyjne?
Trudno też doprawdy zrozumieć jakie intencje przyświecały organizatorom rankingu, gdy pytali o to, od kiedy poszczególne wydziały uczelni posiadają prawo do nadawania tytułu magistra, doktora, doktora habilitowanego itd.? UJ mógł wpisać w tym miejscu oczywiście rok 1364, ale jaki to miałoby sens?! Mógłby też zamówić w Instytucie Historii UJ studium naukowe na ten temat, ale musiałby wówczas wiedzieć, czy istotniejsza dla autorów była data uzyskania uprawnienia, często wyprzedzająca pojawienie się danego wydziału, czy też moment, w którym wydział to uprawnienie uzyskał. Na odpowiedź też pewnie musiałby czekać nie kilka dni – jak oczekiwali autorzy rankingu – ale długie tygodnie.
Do kategorii pytań, na które uczciwie i rzetelnie odpowiedzieć nie sposób, należy też np. pytanie o to „ilu absolwentów z rocznika 2008/2009 podjęło pracę i ile ofert przypadało średnio na jedną osobę”. Mogliśmy tylko zgadywać jakie oferty należało brać pod uwagę – zgromadzone w portalach internetowych? publikowane w gazetach? zgromadzone przez biuro karier danej uczelni?
Autorzy rankingu chcieli też m.in. wiedzieć „ilu studentów odbywało w roku akademickim 2008/2009 praktyki w firmach zatrudniających pow. 100 pracowników. Na UW i UJ praktyki obowiązkowe ma każdy z kilkudziesięciu tysięcy studentów. Skontrolowanie, ilu z nich miało staż w firmach zatrudniających 100 pracowników jest nie do ustalenia. Bo jak ustalić stan zatrudnienia zewnętrznych firm? Nawet jednak, gdyby ustalenie takich danych byłoby możliwe, to trudno pojąć, czemu ta wiedza miałaby służyć. Czy praktyka w firmie zatrudniającej 99 osób ma - zdaniem autorów rankingu mniejszą wartość niż w firmie zatrudniającej 101 osób?
Pod znakiem zapytania stoi też sensowność pytań, na które należało udzielić odpowiedzi tak lub nie, np. Czy uczelnia ma podpisane umowy partnerskie z przedsiębiorstwami (na podstawie których np. szkoli studentów w danej / nowej dziedzinie, uruchomiła specjalne kierunki z przeznaczeniem dla danego przedsiębiorstwa lub SSE, fundowane są stypendia dla studentów)?. Załóżmy, że zdecydowana większość uczelni (a na pewno każda duża) ma podpisaną choć jedną umowę, więc co wynika z porównania stu odpowiedzi „tak”?
To tylko kilka przykładów. Cała ankieta tygodnika „Wprost” i miesięcznika „Dlaczego” składa się z 32 pytań. Większość z nich jest nieprecyzyjna i nieprzemyślana. Poza tym już w trakcie przygotowywania rankingu część pytań została przez jego autorów zmieniona, a uczelnie, które dotychczas jej nie wypełniły, zostały ponownie poproszone o udział w rankingu. Wywołało to kolejne wątpliwości. Jeśli część uczelni wypełniła pierwszą ankietę, a część drugą, to jak autorzy rankingu zamierzali je porównać? Wprowadzone poprawki też bynajmniej nie uczyniły rankingu bardziej dopracowanym. W miejscu źle zadanych pytań pojawiły się nowe, równie nieprecyzyjne.
Red. Barbara Kasprzycka kończy swój komentarz we „Wprost” deklaracją, że jego autorzy „czują się zobowiązani wobec przyszłych absolwentów szkół średnich, by ranking w kolejnych latach doskonalić”. Przyjmujemy to za dobrą monetę. Jeśli jednak podstawą kolejnych edycji rankingu miałaby być tegoroczna ankieta, to już teraz widzimy, że będą mieli dużo pracy.
W pełni zgadzamy się za to z Panią Redaktor, że nie ma żadnego powodu „by Polacy byli skazani na byle jakie studiowanie w byle jakich uczelniach”. Możemy jednak także dodać, że nie ma też powodu by maturzyści wybierając uczelnie byli skazani na lekturę byle jakich rankingów."
Źródło: www.uj.edu.pl