Search results

Filters

  • Journals

Search results

Number of results: 42
items per page: 25 50 75
Sort by:

Abstract

With development of medical diagnostic and imaging techniques the sparing surgeries are facilitated. Renal cancer is one of examples. In order to minimize the amount of healthy kidney removed during the treatment procedure, it is essential to design a system that provides three-dimensional visualization prior to the surgery. The information about location of crucial structures (e.g. kidney, renal ureter and arteries) and their mutual spatial arrangement should be delivered to the operator. The introduction of such a system meets both the requirements and expectations of oncological surgeons. In this paper, we present one of the most important steps towards building such a system: a new approach to kidney segmentation from Computed Tomography data. The segmentation is based on the Active Contour Method using the Level Set (LS) framework. During the segmentation process the energy functional describing an image is the subject to minimize. The functional proposed in this paper consists of four terms. In contrast to the original approach containing solely the region and boundary terms, the ellipsoidal shape constraint was also introduced. This additional limitation imposed on evolution of the function prevents from leakage to undesired regions. The proposed methodology was tested on 10 Computed Tomography scans from patients diagnosed with renal cancer. The database contained the results of studies performed in several medical centers and on different devices. The average effectiveness of the proposed solution regarding the Dice Coefficient and average Hausdorff distance was equal to 0.862 and 2.37 mm, respectively. Both the qualitative and quantitative evaluations confirm effectiveness of the proposed solution.
Go to article

Abstract

The integrated Singular Value Decomposition (SVD) and Unscented Kalman Filter (UKF) method can recursively estimate the attitude and attitude rates of a nanosatellite. At first, Wahba’s loss function is minimized using the SVD and the optimal attitude angles are determined on the basis of the magnetometer and Sun sensor measurements. Then, the UKF makes use of the SVD’s attitude estimates as measurement results and provides more accurate attitude information as well as the attitude rate estimates. The elements of “Rotation angle error covariance matrix” calculated for the SVD estimations are used in the UKF as the measurement noise covariance values. The algorithm is compared with the SVD and UKF only methods for estimating the attitude from vector measurements. Possible algorithm switching ideas are discussed especially for the eclipse period, when the Sun sensor measurements are not available.
Go to article

Abstract

Ionizing radiation applied on food eliminates harmful microorganisms, prevents sprouting and delays ripening. All methods for detection of irradiated food are based on physical, chemical, biological or microbiological changes caused by the treatment with ionizing radiation. When minerals are exposed to ionizing radiation, they accumulate radiation energy and store it in the crystal lattice, by which some electrons remain trapped in the lattice. When these minerals are exposed to optical stimulation, trapped electrons are released. The phenomenon, called optically stimulated luminescence or photostimulated luminescence, occurs when released electrons recombine with holes from luminescence centers in the lattice, resulting in emission of light with certain wavelengths. In this paper, the results of measurements performed on seven different samples of herbs and spices are presented. In order to make a comparison between luminescence signals from samples treated with different doses, unirradiated samples are treated with Co-60 with doses of 1 kGy, 5 kGy and 10 kGy. In all cases it was shown that the higher the applied dose, the higher the luminescence signal.
Go to article

Abstract

Hydroxyapatite (HAp) has been attracting widespread interest in medical applications. In a form of coating, it enables to create a durable bond between an implant and surrounding bone tissues. With addition of silver nanoparticles HAp should also provide antibacterial activity. The aim of this research was to evaluate the composition of hydroxyapatite with silver nanoparticles in a non-destructive and non-contact way. For control measurements of HAp molecular composition and solvent evaporation efficiency the Raman spectroscopy has been chosen. In order to evaluate dispersion and concentration of the silver nanoparticles inside the hydroxyapatite matrix, the optical coherence tomography (OCT) has been used. Five samples were developed and examined ‒ a reference sample of pure HAp sol and four samples of HAp colloids with different silver nanoparticle solution volume ratios. The Raman spectra for each solution have been obtained and analyzed. Furthermore, a transverse-sectional visualization of every sample has been created and examined by means of OCT.
Go to article

Abstract

Precise measurement of rail vehicle velocities is an essential prerequisite for the implementation of modern train control systems and the improvement of transportation capacity and logistics. Novel eddy current sensor systems make it possible to estimate velocity by using cross-correlation techniques, which show a decline in precision in areas of high accelerations. This is due to signal distortions within the correlation interval. We propose to overcome these problems by employing algorithms from the field of dynamic programming. In this paper we evaluate the application of correlation optimized warping, an enhanced version of dynamic time warping algorithms, and compare it with the classical algorithm for estimating rail vehicle velocities in areas of high accelerations and decelerations.
Go to article

Abstract

Determination of the physico-chemical interactions between liquid and solid substances is a key technological factor in many industrial processes in metallurgy, electronics or the aviation industry, where technological processes are based on soldering/brazing technologies. Understanding of the bonding process, reactions between materials and their dynamics enables to make research on new materials and joining technologies, as well as to optimise and compare the existing ones. The paper focuses on a wetting force measurement method and its practical implementation in a laboratory stand – an integrated platform for automatic wetting force measurement at high temperatures. As an example of using the laboratory stand, an analysis of Ag addition to Cu-based brazes, including measurement of the wetting force and the wetting angle, is presented.
Go to article

Abstract

The theoretical aspects of a new type of piezo-resistive pressure sensors for environments with rapidly changing temperatures are presented. The idea is that the sensor has two identical diaphragms which have different coefficients of linear thermal expansion. Therefore, when measuring pressure in environments with variable temperature, the diaphragms will have different deflection. This difference can be used to make appropriate correction of the sensor output signal and, thus, to increase accuracy of measurement. Since physical principles of sensors operation enable fast correction of the output signal, the sensor can be used in environments with rapidly changing temperature, which is its essential advantage. The paper presents practical implementation of the proposed theoretical aspects and the results of testing the developed sensor.
Go to article

Abstract

A single photovoltaic panel under uniform illumination has only one global maximum power point, but the same panel in irregularly illuminated conditions can have more maxima on its power-voltage curve. The irregularly illuminated conditions in most cases are results of partial shading. In the work a single short pulse of load is used to extract information about partial shading. This information can be useful and can help to make some improvements in existing MPPT algorithms. In the paper the intrinsic capacitance of a photovoltaic system is used to retrieve occurrence of partial shading.
Go to article

Abstract

The paper presents methods of on-line and off-line estimation of UAV position on the basis of measurements from its integrated navigation system. The navigation system installed on board UAV contains an INS and a GNSS receiver. The UAV position, as well as its velocity and orientation are estimated with the use of smoothing algorithms. For off-line estimation, a fixed-interval smoothing algorithm has been applied. On-line estimation has been accomplished with the use of a fixed-lag smoothing algorithm. The paper includes chosen results of simulations demonstrating improvements of accuracy of UAV position estimation with the use of smoothing algorithms in comparison with the use of a Kalman filter.
Go to article

Abstract

We present an alternative method to detect and measure the concentration changes in liquid solutions. The method uses Digital Holographic Interferometry (DHI) and is based on measuring refractive index variations. The first hologram is recorded when a wavefront from light comes across an ordinary cylindrical glass container filled with a liquid solution. The second hologram is recorded after slight changing the liquid’s concentration. Differences in phase obtained from the correlation of the first hologram with the second one provide information about the refractive index variation, which is directly related to the changes in physical properties related to the concentration. The method can be used − with high sensitivity, accuracy, and speed − either to detect adulterations or to measure a slight change of concentration in the order of 0.001 moles which is equivalent to a difference of 0.003 g of sodium chloride in solutions. The method also enables to measure and calculate the phase difference among each pixel of two samples. This makes it possible to generate a global measurement of the phase difference of the entire sensed region.
Go to article

Abstract

The paper analyses the distorted data of an electronic nose in recognizing the gasoline bio-based additives. Different tools of data mining, such as the methods of data clustering, principal component analysis, wavelet transformation, support vector machine and random forest of decision trees are applied. A special stress is put on the robustness of signal processing systems to the noise distorting the registered sensor signals. A special denoising procedure based on application of discrete wavelet transformation has been proposed. This procedure enables to reduce the error rate of recognition in a significant way. The numerical results of experiments devoted to the recognition of different blends of gasoline have shown the superiority of support vector machine in a noisy environment of measurement.
Go to article

Abstract

When a frequency domain sensor is under the effect of an input stimulus, there is a frequency shift at its output. One of the most important advantages of such sensors is their converting a physical input parameter into time variations. In consequence, changes of an input stimulus can be quantified very precisely, provided that a proper frequency counter/meter is used. Unfortunately, it is well known in the time-frequency metrology that if a higher accuracy in measurements is needed, a longer time for measuring is required. The principle of rational approximations is a method to measure a signal frequency. One of its main properties is that the time required for measuring decreases when the order of an unknown frequency increases. In particular, this work shows a new measurement technique, which is devoted to measuring the frequency shifts that occur in frequency domain sensors. The presented research result is a modification of the principle of rational approximations. In this work a mathematical analysis is presented, and the theory of this new measurement method is analysed in detail. As a result, a new formalism for frequency measurement is proposed, which improves resolution and reduces the measurement time.
Go to article

Abstract

In this paper a programmable input mode instrumentation amplifier (IA) utilising second generation, multiple output current conveyors and transmission gates is presented. Its main advantage is the ability to choose a voltage or current mode of inputs by setting the voltage of two configuration nodes. The presented IA is prepared as an integrated circuit block to be used alone or as a sub-block in a microcontroller or in a field programmable gate array (FPGA), which shall condition analogue signals to be next converted by an analogue-to-digital converter (ADC). IA is designed in AMS 0.35 µm CMOS technology and the power supply is 3.3 V; the power consumption is approximately 9.1 mW. A linear input range in the voltage mode reaches ± 1.68 V or ± 250 µA in current mode. A passband of the IA is above 11 MHz. The amplifier works in class A, so its current supply is almost constant and does not cause noise disturbing nearby working precision analogue circuits.
Go to article

Abstract

Autocorrelation of signals and measurement data makes it difficult to estimate their statistical characteristics. However, the scope of usefulness of autocorrelation functions for statistical description of signal relation is narrowed down to linear processing models. The use of the conditional expected value opens new possibilities in the description of interdependence of stochastic signals for linear and non-linear models. It is described with relatively simple mathematical models with corresponding simple algorithms of their practical implementation. The paper presents a practical model of exponential autocorrelation of measurement data and a theoretical analysis of its impact on the process of conditional averaging of data. Optimization conditions of the process were determined to decrease the variance of a characteristic of the conditional expected value. The obtained theoretical relations were compared with some examples of the experimental results.
Go to article

Abstract

A new time interval/frequency generator with a jitter below 5 ps is described. The time interval generation mechanism is based on a phase shifting method with the use of a precise DDS synthesizer. The output pulses are produced in a Spartan-6 FPGA device, manufactured by Xilinx in 45 nm CMOS technology. Thorough tests of the phase shifting in a selected synthesizer are performed. The time interval resolution as low as 0.3 ps is achieved. However, the final resolution is limited to 500 ps to maximize precision. The designed device can be used as a source of high precision reference time intervals or a highly stable square wave signal of frequency up to 50 MHz.
Go to article

Abstract

Głównym celem artykułu jest dokonanie oceny stanu bezpieczeństwa dostaw gazu ziemnego do Polski oraz prognoza sytuacji w perspektywie 2025 r. Autor postawił pytania badawcze dotyczące poziomu zapewnienia bezpieczeństwa dostaw gazu ziemnego, zmian indeksu bezpieczeństwa energetycznego w odniesieniu do gazu ziemnego pomiędzy latami 2009 a 2015, a także szans na zwiększenie samowystarczalności energetycznej w zakresie wydobycia gazu ziemnego oraz charakteru zmian struktury zaopatrzenia w paliwo gazowe w perspektywie 2025 r. Postawiono hipotezę, że rozbudowa infrastruktury gazowej w perspektywie 2025 r. zapewni Polsce bezpieczeństwo dostaw gazu ziemnego. W artykule zastosowano racjonalne podejście do problematyki polityki energetycznej, a także wykorzystano metodę analizy czynnikowej, również systemowej. Posłużono się ponadto wielowymiarową analizą porównawczą z zastosowaniem wskaźnika agregatowego oraz metody analizy porównawczej do określenia zmian indeksu bezpieczeństwa energetycznego w odniesieniu do gazu ziemnego pomiędzy latami 2009 a 2015. Wnioski wynikające z przeprowadzonej analizy badawczej wskazują, że Polska rozbudowała infrastrukturę energetyczną do tego stopnia, że jest w stanie zróżnicować źródła dostaw gazu ziemnego w zakresie ponad połowy importowanej ilości. Strategiczne znaczenie ma terminal LNG w Świnoujściu, który zapewnia dywersyfikację kierunków oraz źródeł dostaw skroplonego gazu. Polska ma szansę zwiększyć samowystarczalność energetyczną w zakresie zaopatrzenia w paliwo gazowe, gdyż porównanie 2009 r. i 2015 r. wskazuje na wyraźny trend na rzecz zwiększenia krótkoterminowych transakcji. Postawiona w artykule hipoteza badawcza, że rozbudowa infrastruktury gazowej w perspektywie 2025 r. zapewni Polsce bezpieczeństwo dostaw gazu ziemnego została zweryfikowana pozytywnie.
Go to article

Abstract

Artykuł stanowi analizę decyzyjną partnerstwa energetycznego Federacji Rosyjskiej z Republiką Federalną Niemiec oraz Republiką Francuską. Analizie zostały poddane determinanty wpływające na charakter obustronnej współpracy. Praca ukazuje występujące zależności energetyczne z perspektywy wybranych państw oraz cele polityki Federacji Rosyjskiej, a także odpowiada na pytanie o przyczynę podejmowanych działań. Celem pracy jest również analiza korelacji zachodzącej między pozycją polityczną państwa w UE a charakterem partnerstwa energetycznego z Rosją, jak również analiza sektorów gazu ziemnego poszczególnych państw.
Go to article

Abstract

Zapewnienie bezpieczeństwa jest jednym z najważniejszych zadań kształtujących politykę każdego państwa. Znaczenie tego zagadnienia jest uwarunkowane czynnikami o charakterze wewnętrznym (rozwój krajowych systemów energetycznych), jak i zewnętrznym (oddziaływanie na impulsy ze strony innych państw). Celem artykułu była analiza wpływu wydobycia ropy naftowej ze złóż niekonwencjonalnych na rynek naftowy Stanów Zjednoczonych Ameryki oraz określenie potencjalnych konsekwencji zniesionego przez USA w 2015 roku zakazu eksportu wydobywanego w tym państwie surowca na światowy rynek ropy naftowej. Zasadniczym założeniem było twierdzenie, iż zniesienie obostrzeń w zakresie eksportu ropy naftowej doprowadzi do spadku cen tego surowca na rynkach międzynarodowych, co w dalszej perspektywie będzie miało pozytywny wpływ na bezpieczeństwo energetyczne USA. W artykule autor wskazał kilka korzyści i konsekwencji dla tego typu sytuacji. Po pierwsze – przedsiębiorstwa wydobywcze będą mieć większą swobodę w decydowaniu o wielkości produkcji, gdyż wcześniej niektóre z nich podejmowały decyzje o eksploatacji złóż surowców w oczekiwaniu na znalezienie kupca na wydobywany surowiec. W efekcie zapotrzebowanie na ropę naftową ze złóż niekonwencjonalnych było w pewnym zakresie kształtowane przez krajowy sektor rafineryjny. Po drugie – poprawa bezpieczeństwa energetycznego USA, z uwagi na ograniczenie importu ropy naftowej, przede wszystkim z państw lub regionów niestabilnych politycznie (Bliski Wschód, Afryka). Po trzecie – przeznaczenie środków finansowych na nowe inwestycje, a w efekcie stworzenie dodatkowych miejsc pracy i zmniejszenie bezrobocia. Po czwarte – eksport ropy naftowej przez Stany Zjednoczone Ameryki stanowi potwierdzenie przywiązania do zasad wolnego rynku (swoboda wymiany handlu) oraz stworzyło możliwość większego oddziaływania na światowy rynek ropy naftowej. Po piąte – zmiana regulacji prawnych może doprowadzić do zmniejszenia eksportu paliw. Po szóste – intensyfikacja eksploatacji złóż niekonwencjonalnych ropy naftowej może w ograniczonym zakresie zwiększyć zagrożenie ekologiczne.
Go to article

Abstract

Celem artykułu jest próba identyfikacji oraz oceny stopnia wpływu najważniejszych czynników kształtujących ceny ropy naftowej WTI. Podjęcie takiej tematyki stanowi nawiązanie do dyskusji prowadzonych przez innych badaczy rynku na łamach światowej literatury oraz podejmowanych przez nich prób określenia przyczyn silnych wahań cen surowca z lat 2007–2009. Z jednej strony w okresie tym obserwowano silne fluktuacje wielkości popytu na ropę naftową, tj. w latach 2000–2007 odnotowano ponadprzeciętny wzrost zapotrzebowania na surowiec (szczególnie w krajach azjatyckich), by w okresie kryzysu finansowego obserwować jego nagły spadek. Rosnący popyt i ceny surowca wpłynęły na zwiększenie przez firmy wydobywcze nakładów na rozpoznanie nowych złóż, czego wynikiem jest obserwowany na terenie Ameryki Północnej po 2013 roku silny wzrost wydobycia ze złóż niekonwencjonalnych. Z drugiej strony początek XXI wieku przyniósł rekordowy wzrost obrotu instrumentami finansowymi opartymi na cenach ropy naftowej. W pierwszej części artykułu zaprezentowano przegląd najważniejszych prac empirycznych w obszarze będącym przedmiotem pracy. Weryfikacja postawionego problemu badawczego opierała się na przeprowadzonej analizie kointegracji z wykorzystaniem metody Johansena oraz w drugim kroku estymacji modelu korekty błędem. Próba, na podstawie której dokonano oszacowania, to lata 2002–2014, a więc uwzględniono szczególnie istotny dla historii handlu ropą naftową okres tzw. trzeciego szoku cenowego z lat 2007–2008. Otrzymane rezultaty pozwalają wnioskować, że wpływ na procesy cenotwórcze na rynku czarnego złota mają zarówno czynniki popytowo-podażowe, jak i te związane z obrotem kontraktami terminowymi na ropę naftową. Co ważne, determinanty z pierwszej kategorii, a więc te o charakterze fundamentalnym, silniej rzutują na kształtowanie się cen. Dodatkowo można przypuszczać, że wzrost liczby transakcji futures zawieranych przez podmioty utożsamiane ze spekulacyjnymi (niezwiązane bezpośrednio z przedmiotowym rynkiem) może wpływać destabilizująco na zmiany cen ropy naftowej.
Go to article

Abstract

W artykule przeanalizowano wiele konsekwencji wzrostu penetracji rynku energii elektrycznej przez odnawialne źródła energii, w tym w szczególności źródła niespokojne. Przegląd zagranicznej literatury przedmiotu pozwolił na określenie potencjalnych skutków wzrostu udziału odnawialnych źródeł energii w produkcji ogółem. Do głównych tendencji należą Merit Order Effect, czyli wypychanie energetyki konwencjonalnej, spadek cen na rynku hurtowym oraz silna ujemna korelacja cen energii elektrycznej na rynku spot z wielkością generacji wiatrowej. Określone zostały również niezbędne kierunki rozwoju i konieczne do wprowadzenia zmiany na polskim rynku energii. Konsekwencją rozwoju generacji w źródłach niespokojnych jest wzrost zmienności cenowej na rynku spot, co prowadzi do zwiększenia ryzyka systematycznego uczestnictwa w rynku energii. Wzrost zmienności cen energii powoduje z kolei konieczność ponoszenia coraz wyższych kosztów bilansowania obciążających wynik finansowy sprzedawców zobowiązanych. Wielkość ponoszonych kosztów rośnie wraz z zwiększającym się udziałem produkcji OZE, a w szczególności niespokojnych źródeł wytwórczych takich jak farmy wiatrowe. Istnieje zatem konieczność wprowadzenia zmian w systemie funkcjonowania OZE na rynku konkurencyjnym. Poziom rozwoju rynku OZE oraz jego rosnący udział pozwala sądzić, że wytwórcy OZE powinni wziąć większą odpowiedzialność za koszty bilansowania handlowego. Dalsze przenoszenie kosztów na spółki zobowiązane może doprowadzić do trwałej utraty pozycji konkurencyjnej na rynku względem spółek, które takim kosztem nie są obarczone.
Go to article

Abstract

Austria jest niewielkim państwem, ale o dość wysokim zapotrzebowaniu energetycznym. Nie posiada własnych złóż surowców energetycznych, a do tego brak dostępu do morza pociąga za sobą zależność od innych państw w kwestiach tranzytowych. Kraj jest położony w centrum Europy, dzięki czemu krzyżuje się w nim wiele międzynarodowych tras przesyłu, ale równocześnie sprzyja to łatwemu uzależnieniu od importu. W tych mało sprzyjających warunkach geopolitycznych przyszło Austrii mierzyć się w drugiej połowie XX w. z koniecznością kształtowania polityki energetycznej, która gwarantowałaby bezpieczeństwo energetyczne państwa i jednocześnie spełniała normy środowiskowe. Austria wcześnie dostrzegła potencjał odnawialnych źródeł energii, w szczególności hydroenergii, wykorzystując w ten sposób szczególną topografię kraju. Pod względem udziału odnawialnych źródeł energii w całkowitej produkcji energii elektrycznej w kraju Austria należy do nielicznych pionierów energetyki odnawialnej w Europie. Sukcesem tego państwa była też dokonana w 2001 r. liberalizacja rynku energii elektrycznej, którą Austria przeprowadziła najszybciej spośród państw członkowskich Unii Europejskiej. Liberalizacja umożliwiła zasadniczą reorganizację struktury austriackiego rynku energii z korzyścią dla odbiorców końcowych. Nie udało się jednak zrealizować w pełni wszystkich założonych celów i Austria wciąż stoi przed pewnymi wyzwaniami związanymi z kształtowaniem rynku. Należą do nich, z jednej strony, kwestie wewnętrzne, takie jak wciąż wysoka koncentracja na rynku w obszarze sprzedaży energii. Z drugiej strony, budowa jednolitego rynku w Unii Europejskiej i konsolidacja z rynkami Europy Środkowo-Wschodniej wymagają dalszych działań w zakresie dostosowywania struktury austriackiego rynku energii. W artykule dokonano analizy zarówno podstaw, jak i samego procesu kształtowania rynku energii w Austrii, jego oceny i przeglądu bieżącej sytuacji stanu energetyki w państwie.
Go to article

Abstract

Podstawowym celem artykułu było przedstawienie najnowszych zasad prawnych, które – po przyjęciu 20 lutego 2015 r. ustawy o odnawialnych źródłach energii – mają zasadniczy wpływ na rozwój energetyki odnawialnej w Polsce (w znaczeniu wzrostu wytwarzania energii elektrycznej ze źródeł odnawialnych co najmniej do poziomu wyznaczonego przepisami unijnymi, tj. w przypadku Polski zwiększenie udziału energii wytwarzanej ze źródeł odnawialnych do 15% całkowitego zużycia energii). Wykorzystując poglądy dostępne w literaturze (Baehr i in. 2015) oraz badania dogmatyczne (głównie poprzez wykładnię fundamentalnych przepisów ustawy o OZE) wskazano, jak nowa ustawa wpływa na rozwój energii odnawialnej w Polsce i jak kształtuje sytuację prawną uczestników rynku energii odnawialnej w trzech najważniejszych dla tego rozwoju obszarach. Po pierwsze, w artykule wskazano zasady przyłączenia instalacji odnawialnego źródła energii do sieci. W tym zakresie omówiono pojęcie instalacji odnawialnego źródła energii. Jest ono jednym z ważniejszych pojęć definiowanych przez ustawodawcę, a jego interpretacja wpływa na korzystanie z innych instrumentów gwarantowanych ustawą, głównie na możliwość wzięcia udziału w postępowaniu aukcyjnym na sprzedaż energii odnawialnej. Ponadto wskazano na jakich zasadach i po spełnieniu jakich warunków wytwórca może żądać przyłączenia instalacji odnawialnego źródła energii do sieci. Po drugie przedstawiono główne obowiązki, które musi spełnić wytwórca, aby mógł wziąć udział w aukcji. Po trzecie wskazano podmiot zobowiązany do zakupu energii wytworzonej w źródłach odnawialnych oraz grupy podmiotów uprawnione do złożenia oferty na sprzedaż takiej energii. W tym zakresie zaznaczono, że uprawnienie takie zależne jest od rodzaju instalacji, w której wytworzona została energia odnawialna (tzn., czy była to mikroinstalacja, czy instalacja inna niż mikroinstalacja). Źródłem danych były przede wszystkim przepisy ustawy o OZE. Zatem podstawową metodą wykorzystaną w artykule była metoda analizy dogmatycznej aktów prawnych, głównie ustawy o OZE. W niezbędnym zakresie dokonano analizy ustawy – Prawo energetyczne. Poza zakresem rozważań pozostały przepisy unijne i środowiskowe. Wskazana metoda jest właściwa dla prac naukowych z zakresu nauk prawnych i dla podjętych rozważań nie ma potrzeby stosowania innych metod właściwych tym naukom, m. in. metody empirycznej, czy historycznej.
Go to article

Abstract

W artykule przedstawiono wyniki badań laboratoryjnych procesu wielokrotnego moczenia wodą słomy, którą pozyskano z pszenicy ozimej ściętej w końcowym okresie jej dojrzewania. Dla próbek słomy surowej oraz wielokrotnie moczonej i suszonej po każdym zabiegu moczenia wykonano analizę techniczną i elementarną, zbadano skład chemiczny popiołu otrzymanego z badanej słomy oraz przeprowadzono analizę chemiczną wody oddzielonej od biomasy w poszczególnych cyklach moczenia. Przeprowadzone badania pozwoliły ocenić wpływ operacji wielokrotnego moczenia i suszenia na zmianę właściwości fizykochemicznych, które determinują przydatność słomy jako surowca w procesach spalania i zgazowania. Badania wykazały, że stosując operacje wielokrotnego moczenia i suszenia świeżej słomy zbożowej można z niej usunąć niepożądane składniki, które wchodzą w skład substancji mineralnej. Składniki te pobierane są przez rośliny z podłoża podczas wegetacji w formie tzw. roztworów glebowych. W wyniku wielokrotnego moczenia w wodzie wymywane były ze słomy znaczne ilości jonów chlorkowych oraz związki zawierające siarkę i fosfor. Ponieważ w popiele preparowanej wodą biomasy zmniejszyła się jednocześnie zawartość metali alkalicznych można sądzić, iż do wody przechodziły dobrze rozpuszczalne w wodzie chlorki potasu i sodu. Redukcja rozpuszczalnych w wodzie soli przyczyniła się do zmniejszenia zawartości popiołu w badanej słomie i z punktu widzenia temperatur jego topliwości korzystnie wpłynęła na jego skład chemiczny. Podczas zabiegu wielokrotnego moczenia ze słomy oprócz składników substancji mineralnej usuwane były związki organiczne. Wskazywały na to wysokie wartości wskaźnika ChZT wody po kolejnych zabiegach moczenia. Były to najprawdopodobniej produkty fotosyntezy wypłukane z tkanek pszenicy skoszonej w końcowej fazie dojrzewania. Ich wymycie ze słomy miało wpływ na wyniki analizy elementarnej. Stwierdzono, że w czasie moczenia zmniejszała się w słomie zawartość wodoru i siarki całkowitej, wzrastała natomiast zawartość węgla pierwiastkowego. Zmiany składu elementarnego były powodem nieznacznego obniżenia kaloryczności moczonej w wodzie słomy.
Go to article

Abstract

Bezpieczne funkcjonowanie kopalń węgla kamiennego wymaga stałego odwadniania zarówno funkcjonujących, jak i zamkniętych już kopalń. Z kopalń położonych na obszarze Górnośląskiego Zagłębia Węglowego wypompowuje się na powierzchnię kilkaset tysięcy metrów sześciennych wody na dobę, które mogą znaleźć zastosowanie dla zaspokajania lokalnych potrzeb energetycznych. Wykorzystanie wód kopalnianych na terenach górniczych, bądź też pogórniczych, staje się nowoczesnym, przyjaznym środowisku, a zarazem opłacalnym ekonomiczne sposobem pozyskiwania ciepła. Stwarza możliwość spożytkowania ciepła odpadowego a zarazem uniknięcia niepotrzebnego wykorzystywania konwencjonalnych nośników energii. Ponieważ wykorzystanie wód kopalnianych w celach energetycznych jest zagadnieniem stosunkowo nowym oraz wymagającym indywidualnego podejścia do każdego z analizowanych przypadków, obarczone jest znacznym ryzykiem. Stąd też opracowano model symulacyjny, obrazujący ryzyko związane z zagospodarowywaniem wód kopalnianych w celach energetycznych. Celem opracowania niniejszego modelu jest stworzenie narzędzia pozwalającego na uświadomienie potencjalnemu inwestorowi najistotniejszych zagadnień (pozytywnych, negatywnych, obojętnych) mających wpływ na planowane przez niego przedsięwzięcie. Analiza wyników wygenerowanych przez model symulacyjny, powinna pomóc potencjalnemu inwestorowi w podjęciu decyzji dotyczących słuszności realizacji zaplanowanej przez niego inwestycji.
Go to article

This page uses 'cookies'. Learn more