ÆÄÀ̽ã À̾ Áú¹®ÀÌ ÇÑ°¡Áö ÀÖ½À´Ï´Ù..

   Á¶È¸ 3320   Ãßõ 0    

자료를 최종적으로 csv파일이나 엑셀형태로 내보내고싶은데요.

아래와같이 프로그래밍 했을때 엑셀형태로 내보내기위한 명령어 사용이 안됩니다...


최종 적으로 원하는 데이터 형태는 아래와 같습니다..

Date              Price

2018.3.20       25000

2018.3.22       26400




import requests 

import csv   

from bs4 import BeautifulSoup 

import pandas as pd

code="105560"

url = "http://hkconsensus.hankyung.com/apps.chart/chart.chartList?callback=jQuery112406638263512384042_1563692725032&report_type=CO&business_code=%s&_=1563692725033" %code

headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.142 Safari/537.36'} 

html = requests.get(url,headers = headers).text 

soup = BeautifulSoup(html, "html.parser")

data=str(soup)

first = "(["

last = "])"

getrid_firt = data.split(first, 1)[1]

strdata = getrid_firt.split(last, 1)[0]

print(strdata)



일단 위와같이 코딩을한 배경을 간단히 말씀드리자면



>>> soup

jQuery112406638263512384042_1563692725032([[Date.UTC(2008,9,11),47000],

[Date.UTC(2008,9,14),50700],

[Date.UTC(2008,9,15),53100],

[Date.UTC(2008,9,16),51000],

....

[Date.UTC(2019,6,26),44150],

[Date.UTC(2019,6,27),43800]])


위와같이 첫줄과 막줄에 불필요한 문자들이 포함되어있어 이를 제거하기 위해 

soup = BeautifulSoup(html, "html.parser")

data=str(soup)

스트링 처리를하고

first = "(["

last = "])"

getrid_firt = data.split(first, 1)[1]

strdata = getrid_firt.split(last, 1)[0]


([기호 앞부분과 ])기호 뒷부분을 제거하여 strdata에 저장하였습니다.

그 결과 이게 pandas를 이용해 to_csv를 이용하기가 어려워졌습니다....


엑셀이나 CSV에 

Date              Price

2018.3.20       25000

2018.3.22       26400

이런식으로 결과가 입력되기만 하면되는데....기본이 없으니 삥삥 돌고있습니다....

혹시 가능하시면 도움을 좀 부탁드립니다.

ªÀº±Û Àϼö·Ï ½ÅÁßÇÏ°Ô.
chis 2019-07
µ¥ÀÌÅ͸¦ º¸´Ï±î ÁÖ½Ä µ¥ÀÌÅÍ°°Àºµ¥¿ä Á¦ »ý°¢¿¡´Â ÀÌÂü¿¡ ÇÁ·Î±×·¡¹ÖÀ» Á» °øºÎÇϽðí Â÷±ÙÂ÷±Ù ºÎµúÇô°¡¸é¼­ ±â´ÉÀ» ±¸ÇöÇغ¸½Ã´Â°Ô
ÁÁÀ»°Å°°½À´Ï´Ù. ÀÀ´äµÈ µ¥ÀÌÅ͸¦ º¸¸é ¿ùÀÚ¸®¶ó°í ¿¹ÃøµÇ´Â°÷¿¡ 0¿ùµµ ÀÖ°í ÀÏ ÀÚ¸®¶ó°í ¿¹ÃøµÇ´Â°÷¿¡ 32ÀÏÀ̶ó°í ÀûÈù°÷µµ ÀÖ¾î¿ä..
ÀÌ·±°Å±îÁö ÀüºÎ ±³Á¤ÇؾßÇÒÅÙµ¥ ÀÌ·±°É ÀÏÀÏÀÌ ´Ù ¾Ë·Áµå¸±¼ö´Â ¾øÁö ¾ÊÀ»±î¿ä?
ÀÏ´Ü ¿Ã¸®½Å ¼Ò½º¿¡¼­´Â ÀÀ´äµÈ µ¥ÀÌÅ͸¦ bs4·Î °¥ ÇÊ¿ä ¾øÀÌ  .text·Î ÆĽÌÇÑ°Å ±×´ë·Î ¾²½Ã¸é µÉ°Å°°°í¿ä.
ÀÀ´äµÈ µ¥ÀÌŸ°¡ Á» ÁöÀúºÐÇÑ ±¸Á¶¶ó¼­ Á¤±ÔÇ¥Çö½ÄÀ» Á» ÀÍÈ÷¼Å¾ßÇÒ°Å°°½À´Ï´Ù.
±×¸®°í csv·Î ÀúÀåÇÒ¶§´Â pandas±îÁö ¾²½Ç ÇÊ¿ä ¾ø°í ±×³É import csvÇؼ­ »ç¿ëÇϼŵµ ¹«¹æÇÒµíÇÏ°í¿ä.
     
´ä±Û °¨»çµå¸³´Ï´Ù^^
¸»¾¸Ã³·³Á¶±Ý¾¿ °øºÎÇϸ鼭 °¡°íÀÖ½À´Ï´Ù. Á¶±ÞÇÔ ¶§¹®ÀÌÁö¿ä ¤¾¤¾¤¾

¸»¾¸ÇØÁֽŰÍó·³ .textÆĽÌÇÑ°Í ±×´ë·Î °¡µµ ±¦Âú³×¿ä~!
Çåµ¥ Á¦°¡ Àß ¸ð¸£´Â°Í °°Àº°ÍÀÌ csv³ª ¿¢¼¿ÇüÅ·Π³»º¸³¾¶§ ÀÚ·áÇüÀÌ ¾î¶²°ÍÀ̾î¾ß Çϳª¿ä?
¾ÕµÚ¿¡ÀÖ´Â ºÒÇÊ¿äÇÑ ºÎºÐÀ̳ª. [,]()¿Í °°Àº ºÒÇÊ¿äÇÑ ±âÈ£¸¦ ¾ø¾Ö·Á°í strÀÚ·áÇüÀ¸·Î ¹Ù²Ù¾ú´õ´Ï
³ªÁß¿¡ csv·Î ³»º¸³»µµ ÇÑÀÚÇÑÀÚ ¼¿À» ¹Ù²ã ÀúÀåÀÌ µÇ³×¿ä ¤¾¤¾¤¾
´Ù½Ã ÀÚ·áÇüÀ» ¹Ù²Ù¸é µÉ±î¿ä??
          
chis 2019-07
import csvÇؼ­ csvÀúÀåÇϴ°Ŵ writerow·Î ÇÑÁÙ¾¿ ¸®½ºÆ®ÇüÅ·ΠÀÔ·ÂÇÏ¸é µé¾î°©´Ï´Ù.
¿¢¼¿·Î »ÌÀ»·Á¸é  pip·Î ¿ÜºÎ ¸ðµâÀ» ºÒ·¯´Ù°¡ ½á¾ßÇϴµ¥ ÀÌ°Ô ¸ðµâ¸¶´Ù »ç¿ë¹ýÀÌ ´Ù¸£´Ùº¸´Ï ±×³É csv·Î ÀúÀåÇÏ´Â°Ô ÆíÇҰŶó°í »ý°¢µË´Ï´Ù.
ÆÄÀ̽ãÀ¸·Î µ¥ÀÌŸ¸¸ ½ºÅ©·¡ÇÎÇؼ­ ¿¢¼¿¿¡ ºÒ·¯³õ°í ¸Õ°¡ ÀÛ¾÷À» ÇϽǷÁ´Â°Å°°Àºµ¥ ÆÄÀ̽ãÀ» Á» ´õ ÀÍÈ÷¼Å¼­ ¿¢¼¿À» ÀÌ¿ëÇÏÁö ¾Ê°í ó¸®Çϴ°Ô
¼Óµµ¸é¿¡¼­µµ ±â´É¸é¿¡¼­µµ ¿ùµîÇϸ®¶ó »ý°¢µË´Ï´Ù¸¸ database±îÁö °°ÀÌ ÀÍÈ÷¼Å¾ßÇÒ°Ì´Ï´Ù..


QnA
Á¦¸ñPage 3435/5686
2014-05   4970308   Á¤ÀºÁØ1
2015-12   1506624   ¹é¸Þ°¡
2010-09   7721   Á¤ÀºÁØ1
2020-09   4890   ²¿¸¶°í¾¾
2015-01   6664   Â÷Æò¼®
2023-11   2496   dateno1
2015-01   6672   ȸ¿øK
2022-03   1621   cho609495
2016-03   3783   Ä«¸£ÇÏŸ
2013-09   4249   ÄÄÁö±â
2015-01   4526   À¯·Î
2010-11   5778   È«»óÈÆ
2018-05   3395   ´ÃÆĶõ
2020-10   3686   ½ºÆ¿º£¾î
2016-03   5436   ½Öcpu
2017-03   6400   ¼ÛÁøÈ«
2020-10   6165   º´µû°³´Ô
2018-05   3975   inquisitive
2019-07   3321   ´ëÇѹα¹
2016-03   4341   DoWoo
2020-10   2638   ½ÅÀº¿Ö
2015-01   3373   À©µµ¿ì10