Yerbilimleri/Hacettepe Üniversitesi Yerbilimleri Uygulama ve Araştırma Merkezi Dergisi, cilt.43, sa.1, ss.1-17, 2022 (Scopus, TRDizin)
Sismik sinyalin aynı yolu birden fazla kat etmesi sonucu oluşan tekrarlı yansımalar sismik kesitler üzerinde
birincil yansımaları maskeleyerek verilerin işlenmesinde ve yorumlanmasında hatalara sebebiyet
vermektedirler. Bu nedenle gürültü olarak kabul edilen tekrarlı yansımaları bastırabilmek için sismik veri
işlemde birçok yöntem geliştirilmiştir. Bu çalışmada çok kanallı sismik yansıma verisi üzerine rutin veri işlem
adımlarının uygulanmasının yanı sıra tekrarlı yansımaların bastırılabilmesi için bazı veri işlem adımları
uygulanmıştır. Çok kanallı sismik veri İstanbul Üniversitesi-Cerrahpaşa Jeofizik Mühendisliği Sismik Veri İşlem
Laboratuvarında Linux İşletim Sistemi altında çalışan Paradigm® Echos® sismik veri işlem yazılımları
kullanılarak işlenmiştir. Rutin veri işlem adımları; veri yükleme (data loading), geometri tanımlama (geometry
definition), istenmeyen izlerin atılması (editing), istenmeyen alanların atılması (muting), kazanç analizi (gain
recovery), bant geçişli filtreleme (band-pass filter), ortak derinlik noktası düzenine geçiş (common depth pointCDP), hız analizi velocity analysis), normal kayma zamanı düzeltmesi (normal moveout correction-NMO),
yığma (stack) ve migrasyondur (migration). Tekrarlı yansımaların bastırılabilmesi için ise sismik veri üzerine
önkestirim dekonvolüsyonu ve F-K eğim süzgeci yöntemleri uygulanmıştır. Önkestirim dekonvolüsyonu işlemi
uygulanmasında deneme-yanılma yoluyla parametre değerleri seçilerek her parametreler için ayrı ayrı elde
edilen veriler değerlendirilmiştir. Daha sonra bu veriler arasında karşılaştırmalar yapılarak en uygun sonucu
veren parametre değerleri belirlenmeye çalışılmıştır. F-K eğim süzgeci uygulanmasında ise birincil
yansımaların ve tekrarlı yansımaların arasındaki NMO (Normal Kayma Zamanı) farkından yararlanılmıştır. FK ortamında süzgeçleme için iki farklı modül irdelenmiştir. Bu modüllerden daha başarılı olanı seçilerek
önkestirim dekonvolüsyonu yöntemi ile karşılaştırmaya gidilmiştir. Sonuç olarak tekrarlı yansımaları bastırma
işleminde, önkestirim dekonvolüsyonu uygulanmış veri ile F-K eğim süzgeci uygulanmış veriler arasında
karşılaştırmalar yapılmış ve en uygun sonucu veren yöntem belirlenmeye çalışılmıştır.
Multiple reflections caused by the seismic signal traveling the same path more than once can mask the primary
reflections on seismic sections and can cause difficulties in the data processing and interpretation of seismic
data. For this reason, many methods have been developed in seismic data processing in order to suppress
multiple reflections considered as noise. In this study, besides routine data processing steps, some data processing steps were applied to data to remove multiples. This multichannel seismic data was processed
using Paradigm® Echos® software in the “Seismic Data Processing Laboratory” at the Department of Geophysical
Engineering Istanbul University-Cerrahpasa. Routine data processing steps are; data loading, geometry
definition, editing, muting, gain recovery, bandpass filtering, CDP sorting, velocity analysis, NMO correction,
stack, and migration. In order to suppress multiple reflections, predictive deconvolution and F-K filter were
applied on seismic data. In the application of the predictive deconvolution process, the parameter values were
selected by trial and error and the data were evaluated for each parameter. Then, comparisons were made
between these data and the parameters that gave the most appropriate results. In the application of the F-K
slope filter, the NMO (Normal Shift Time) difference between the primary reflections and the multiple reflections
was used. Two different modules were studied for filtering in the F-K environment. A comparison with the
predictive deconvolution was made by selecting the more successful of these modules. As a result, in the
suppression of multiple reflections comparisons were made between predictive deconvolution that gave the best
result and F-K filter, then the best method that gave the correct result was tried to be determined.