ÆÄÀ̽ã À̾ Áú¹®ÀÌ ÇÑ°¡Áö ÀÖ½À´Ï´Ù..

   Á¶È¸ 3307   Ãßõ 0    

자료를 최종적으로 csv파일이나 엑셀형태로 내보내고싶은데요.

아래와같이 프로그래밍 했을때 엑셀형태로 내보내기위한 명령어 사용이 안됩니다...


최종 적으로 원하는 데이터 형태는 아래와 같습니다..

Date              Price

2018.3.20       25000

2018.3.22       26400




import requests 

import csv   

from bs4 import BeautifulSoup 

import pandas as pd

code="105560"

url = "http://hkconsensus.hankyung.com/apps.chart/chart.chartList?callback=jQuery112406638263512384042_1563692725032&report_type=CO&business_code=%s&_=1563692725033" %code

headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.142 Safari/537.36'} 

html = requests.get(url,headers = headers).text 

soup = BeautifulSoup(html, "html.parser")

data=str(soup)

first = "(["

last = "])"

getrid_firt = data.split(first, 1)[1]

strdata = getrid_firt.split(last, 1)[0]

print(strdata)



일단 위와같이 코딩을한 배경을 간단히 말씀드리자면



>>> soup

jQuery112406638263512384042_1563692725032([[Date.UTC(2008,9,11),47000],

[Date.UTC(2008,9,14),50700],

[Date.UTC(2008,9,15),53100],

[Date.UTC(2008,9,16),51000],

....

[Date.UTC(2019,6,26),44150],

[Date.UTC(2019,6,27),43800]])


위와같이 첫줄과 막줄에 불필요한 문자들이 포함되어있어 이를 제거하기 위해 

soup = BeautifulSoup(html, "html.parser")

data=str(soup)

스트링 처리를하고

first = "(["

last = "])"

getrid_firt = data.split(first, 1)[1]

strdata = getrid_firt.split(last, 1)[0]


([기호 앞부분과 ])기호 뒷부분을 제거하여 strdata에 저장하였습니다.

그 결과 이게 pandas를 이용해 to_csv를 이용하기가 어려워졌습니다....


엑셀이나 CSV에 

Date              Price

2018.3.20       25000

2018.3.22       26400

이런식으로 결과가 입력되기만 하면되는데....기본이 없으니 삥삥 돌고있습니다....

혹시 가능하시면 도움을 좀 부탁드립니다.

ªÀº±Û Àϼö·Ï ½ÅÁßÇÏ°Ô.
chis 2019-07
µ¥ÀÌÅ͸¦ º¸´Ï±î ÁÖ½Ä µ¥ÀÌÅÍ°°Àºµ¥¿ä Á¦ »ý°¢¿¡´Â ÀÌÂü¿¡ ÇÁ·Î±×·¡¹ÖÀ» Á» °øºÎÇϽðí Â÷±ÙÂ÷±Ù ºÎµúÇô°¡¸é¼­ ±â´ÉÀ» ±¸ÇöÇغ¸½Ã´Â°Ô
ÁÁÀ»°Å°°½À´Ï´Ù. ÀÀ´äµÈ µ¥ÀÌÅ͸¦ º¸¸é ¿ùÀÚ¸®¶ó°í ¿¹ÃøµÇ´Â°÷¿¡ 0¿ùµµ ÀÖ°í ÀÏ ÀÚ¸®¶ó°í ¿¹ÃøµÇ´Â°÷¿¡ 32ÀÏÀ̶ó°í ÀûÈù°÷µµ ÀÖ¾î¿ä..
ÀÌ·±°Å±îÁö ÀüºÎ ±³Á¤ÇؾßÇÒÅÙµ¥ ÀÌ·±°É ÀÏÀÏÀÌ ´Ù ¾Ë·Áµå¸±¼ö´Â ¾øÁö ¾ÊÀ»±î¿ä?
ÀÏ´Ü ¿Ã¸®½Å ¼Ò½º¿¡¼­´Â ÀÀ´äµÈ µ¥ÀÌÅ͸¦ bs4·Î °¥ ÇÊ¿ä ¾øÀÌ  .text·Î ÆĽÌÇÑ°Å ±×´ë·Î ¾²½Ã¸é µÉ°Å°°°í¿ä.
ÀÀ´äµÈ µ¥ÀÌŸ°¡ Á» ÁöÀúºÐÇÑ ±¸Á¶¶ó¼­ Á¤±ÔÇ¥Çö½ÄÀ» Á» ÀÍÈ÷¼Å¾ßÇÒ°Å°°½À´Ï´Ù.
±×¸®°í csv·Î ÀúÀåÇÒ¶§´Â pandas±îÁö ¾²½Ç ÇÊ¿ä ¾ø°í ±×³É import csvÇؼ­ »ç¿ëÇϼŵµ ¹«¹æÇÒµíÇÏ°í¿ä.
     
´ä±Û °¨»çµå¸³´Ï´Ù^^
¸»¾¸Ã³·³Á¶±Ý¾¿ °øºÎÇϸ鼭 °¡°íÀÖ½À´Ï´Ù. Á¶±ÞÇÔ ¶§¹®ÀÌÁö¿ä ¤¾¤¾¤¾

¸»¾¸ÇØÁֽŰÍó·³ .textÆĽÌÇÑ°Í ±×´ë·Î °¡µµ ±¦Âú³×¿ä~!
Çåµ¥ Á¦°¡ Àß ¸ð¸£´Â°Í °°Àº°ÍÀÌ csv³ª ¿¢¼¿ÇüÅ·Π³»º¸³¾¶§ ÀÚ·áÇüÀÌ ¾î¶²°ÍÀ̾î¾ß Çϳª¿ä?
¾ÕµÚ¿¡ÀÖ´Â ºÒÇÊ¿äÇÑ ºÎºÐÀ̳ª. [,]()¿Í °°Àº ºÒÇÊ¿äÇÑ ±âÈ£¸¦ ¾ø¾Ö·Á°í strÀÚ·áÇüÀ¸·Î ¹Ù²Ù¾ú´õ´Ï
³ªÁß¿¡ csv·Î ³»º¸³»µµ ÇÑÀÚÇÑÀÚ ¼¿À» ¹Ù²ã ÀúÀåÀÌ µÇ³×¿ä ¤¾¤¾¤¾
´Ù½Ã ÀÚ·áÇüÀ» ¹Ù²Ù¸é µÉ±î¿ä??
          
chis 2019-07
import csvÇؼ­ csvÀúÀåÇϴ°Ŵ writerow·Î ÇÑÁÙ¾¿ ¸®½ºÆ®ÇüÅ·ΠÀÔ·ÂÇÏ¸é µé¾î°©´Ï´Ù.
¿¢¼¿·Î »ÌÀ»·Á¸é  pip·Î ¿ÜºÎ ¸ðµâÀ» ºÒ·¯´Ù°¡ ½á¾ßÇϴµ¥ ÀÌ°Ô ¸ðµâ¸¶´Ù »ç¿ë¹ýÀÌ ´Ù¸£´Ùº¸´Ï ±×³É csv·Î ÀúÀåÇÏ´Â°Ô ÆíÇҰŶó°í »ý°¢µË´Ï´Ù.
ÆÄÀ̽ãÀ¸·Î µ¥ÀÌŸ¸¸ ½ºÅ©·¡ÇÎÇؼ­ ¿¢¼¿¿¡ ºÒ·¯³õ°í ¸Õ°¡ ÀÛ¾÷À» ÇϽǷÁ´Â°Å°°Àºµ¥ ÆÄÀ̽ãÀ» Á» ´õ ÀÍÈ÷¼Å¼­ ¿¢¼¿À» ÀÌ¿ëÇÏÁö ¾Ê°í ó¸®Çϴ°Ô
¼Óµµ¸é¿¡¼­µµ ±â´É¸é¿¡¼­µµ ¿ùµîÇϸ®¶ó »ý°¢µË´Ï´Ù¸¸ database±îÁö °°ÀÌ ÀÍÈ÷¼Å¾ßÇÒ°Ì´Ï´Ù..


QnA
Á¦¸ñPage 1242/5685
2014-05   4965362   Á¤ÀºÁØ1
2015-12   1501761   ¹é¸Þ°¡
2016-02   3372   Ãֽÿµ
2018-07   3372   ¿ÀÀ̵µ½½·¹¡¦
2018-10   3372   Balance
2019-05   3372   ±¸Â÷´Ï
2017-03   3372   Sikieiki
2020-07   3372   ±×¸ðµµ
2017-05   3372   ÇູÇϼ¼
2018-01   3373   turtlmac
2018-02   3373   »ßµ¹À̽½ÇÄÀÌ
2015-08   3373   Midabo
2018-11   3373   °¡»óÈ­°øºÎÁß
2015-07   3373   ½ÅÀº¿Ö
2015-09   3373   ³ªÆÄÀÌ°­½ÂÈÆ
2015-01   3373   °³¿ÕÃʺ¸
2017-07   3373   ½Ì±¹³¯°­µµ
2020-11   3373   heck
2018-11   3373   ZISQO
2018-11   3373   LINKINPARK
2017-07   3373   ºü½Ã¿Â
2014-01   3373   ±èÆDZ¸