я пытаюсь прочитать в .xrdml данных в сложном массиве в г

голоса
0

Я пытаюсь прочитать несколько файлов типа «.xrdml» и объединить их в единую dataframe с интуитивной наклейкой. Проблема заключается в том, что этот тип файла имеет большой метаданные.

Я попытался следующие

Необходимый пакет

library(rxylib)

Вещи я пытался

temp = list.files(pattern=*.xrdml)
xyz<-do.call(rbind,sapply(temp, read_xyData,verbose = TRUE,metaData = FALSE))

я в конечном итоге со списком, я могу назвать каждый член списка, используя, например, xyz`2`

          2Theta    V2
   [1,]  4.006565  3496
   [2,]  4.019695  3417
   [3,]  4.032826  3520
   [4,]  4.045956  3516
   [5,]  4.059086  3480
   [6,]  4.072217  3343
   [7,]  4.085347  3466
   [8,]  4.098477  3552
   [9,]  4.111607  3425
  [10,]  4.124738  3384

если я пытаюсь сгладить список с помощью unlist функции, то результат становится грязным

то, что я хотел бы сделать, это прочитать все файлы и объединить их по столбцам, каждый файл имеет первый столбец в общем, т.е. 2Theta. я также хотел бы использовать уникальную часть каждого заголовка файла для обозначения V2

мои файлы имеют названия , как BBHD-FASS_4-70_step01_40s_ LM 11_5 .xrdml. то , что я надеюсь быть в состоянии сделать в конце должен иметь dataframe аналогичный приведенному ниже образцу

2Theta   LM 6-26  LM 6-27  LM 6-28 LM 4-10 LM 4-11 LM 4-12
4.006565    3576    3535    3677    3576    3535    3677
4.019695    3526    3552    3662    3526    3552    3662
4.032826    3584    3581    3657    3584    3581    3657
4.045956    3489    3535    3539    3489    3535    3539
4.059086    3496    3507    3525    3496    3507    3525
4.072217    3335    3466    3628    3335    3466    3628
4.085347    3353    3456    3444    3353    3456    3444
4.098477    3430    3479    3588    3430    3479    3588
4.111607    3334    3547    3535    3334    3547    3535
4.124738    3424    3342    3439    3424    3342    3439
4.137868    3349    3384    3459    3349    3384    3459
4.150998    3318    3395    3413    3318    3395    3413
4.164129    3208    3490    3457    3208    3490    3457
4.177259    3357    3295    3519    3357    3295    3519
4.190389    3254    3372    3450    3254    3372    3450

Вот образцы моих файлы образцы файлов

К сожалению, я потратил столько времени уже пытаюсь несколько вещей, которые не работают.

Я буду очень признателен за любую помощь или руководство я могу получить о том, как подойти к этой проблеме.

Задан 02/09/2018 в 05:37
источник пользователем
На других языках...                            


1 ответов

голоса
4

Для того, чтобы добраться до данных , которые вы должны найти правильную позицию в списке данных, возвращаемых read_xyData. Вы можете сделать это, глядя на str(lst)ниже. Для того, чтобы добраться до использования данных ...$dataset[[1]]$data_block. (может быть экстрактор функции в пакете , но я не проверял)

# download data : link dead
#download.file("https://ucc93bf0aa50821e11b95c9530f5.dl.dropboxusercontent.com/zip_by_token_key?_download_id=9101556320431172280658295109635067362614982268430911643523348&_notify_domain=www.dropbox.com&dl=1&key=AV5mxk0trnetzASlH9_xJijTiGE55mUz0qa-x7JveZ7-Rdp3Z8i7GmwwQoWj8tUO14RKj51huhb5CuBdoxAC3WLuHvOMr7_bul691AmGpmwZgWWy0STezjFRnq0CVUR-iHNnZUHk9-t-i72nYODDpjXvo0PBhWTXwJuNWCSL4bnAauZREQtZwzNlspMF8PwZ37E9enf1WUUakLJwE43GbV2lAkuOTDghfcMmwokulIMEGA", destfile=temp<-tempfile())
unzip(temp, exdir=xdir<-tempdir())  

nms <- list.files(xdir, pattern="xrdml", full.names=TRUE)
# grab the names to names columns later
cnms <- gsub(".*(LM \\w+).*$", "\\1", basename(nms))


library(rxylib)

# loop through files to read in
lst <- lapply(nms, read_xyData, verbose = TRUE, metaData = FALSE)

# grab the data
dats <- lapply(lst, function(x) x$dataset[[1]]$data_block)

# rename second column
dats <- lapply(seq_along(dats), function(x) {
                          colnames(dats[[x]])[2] <- cnms[x] ; dats[[x]]})

# merge
alldat <- Reduce(function(...) merge(..., by="2Theta"), dats)
Ответил 19/11/2018 в 18:07
источник пользователем

Cookies help us deliver our services. By using our services, you agree to our use of cookies. Learn more